Как я могу загрузить весь веб-сайт?

Как я могу загрузить все страницы с веб-сайта?

Любая платформа прекрасна.

357
задан 26.07.2016, 07:08

12 ответов

HTTRACK работает как чемпион на копирование содержания всего сайта. Этот инструмент может даже захватить части, должен был сделать веб-сайт с активной работой содержания кода офлайн. Я поражен материалом, который это может копировать офлайн.

Эта программа сделает все, чего Вы требуете ее.

Счастливый поиск!

341
ответ дан 16.12.2019, 22:45

Я не сделал этого за многие годы, но там существует все еще несколько утилит. Вы могли бы хотеть попробовать веб-Змею. Я полагаю, что использовал его несколько лет назад. Я помнил имя сразу же, когда я считал Ваш вопрос.

Я соглашаюсь с Stecy. Не куйте их сайт. Очень Плохо.

4
ответ дан 16.12.2019, 22:45

Wget является классическим инструментом командной строки для этого вида задачи. Это идет с большинством систем Unix/Linux, и можно получить его для Windows также. На Mac Домашнее пиво является самым легким способом установить его (brew install wget).

Вы сделали бы что-то как:

wget -r --no-parent http://site.com/songs/

Для получения дополнительной информации см. Руководство Wget и его примеры, или например, они:

278
ответ дан 16.12.2019, 22:45
  • 1
    +1 для включения - без родителей. определенно используйте - зеркально отражают вместо-r., и Вы могли бы хотеть включать-L/-относительно не, переходят по ссылкам к другим серверам. – quack quixote 09.10.2009, 15:43

Я обращусь к буферизации онлайн то использование браузеров...

Обычно большинство браузеров использует кэш просмотра для хранения файлов, которые Вы загружаете с веб-сайта вокруг некоторое время так, чтобы Вы не загружали статические изображения и содержание много раз. Это может ускорить вещи вполне немного при некоторых обстоятельствах. Вообще говоря, большинство кэшей браузера ограничено фиксированным размером и когда он поразит тот предел, он удалит самые старые файлы в кэше.

ISPs имеют тенденцию иметь кэширующиеся серверы, которые сохраняют копии веб-сайтов, к которым обычно получают доступ, как ESPN и CNN. Это избавляет их от необходимости поразить эти сайты каждый раз, когда кто-то в их сети идет туда. Это может составить значительные сбережения в сумме дублированных запросов на внешние сайты к ISP.

5
ответ дан 16.12.2019, 22:45

DownThemAll является дополнением Firefox, которое загрузит все содержание (звуковые файлы или видеофайлы, например) для конкретной веб-страницы в одиночном нажатии. Это не загружает весь сайт, но это может быть видом вещи, которую искал вопрос.

3
ответ дан 16.12.2019, 22:45

Мне нравится Офлайновый Проводник.
Это - условно-бесплатное программное обеспечение, но это очень хорошо и просто в использовании.

5
ответ дан 16.12.2019, 22:45

itsucks - это - название программы!

7
ответ дан 16.12.2019, 22:45

Интернет-Менеджер загрузок имеет утилиту Site Grabber с большим количеством опций - который позволяет Вам полностью загрузить любой веб-сайт, который Вы хотите, способ, которым Вы хотите это.

  1. Можно установить предел для размера страниц/файлов для загрузки

  2. Можно определить номер сайтов ответвления для посещения

  3. Можно изменить способ, которым ведут себя сценарии/всплывающие окна/дубликаты

  4. Можно указать домен, только под тем доменом, все страницы/файлы, встречающие необходимые настройки, будут загружены

  5. Ссылки могут быть преобразованы в офлайновые ссылки для просмотра

  6. У Вас есть шаблоны, которые позволяют Вам выбрать вышеупомянутые настройки для Вас

enter image description here

Программное обеспечение не является бесплатным однако - видят, удовлетворяет ли оно Вашим потребностям, используйте пробную версию.

8
ответ дан 16.12.2019, 22:45

Необходимо смотреть на ScrapBook, расширение Firefox. Это имеет всесторонний режим получения.

enter image description here

8
ответ дан 16.12.2019, 22:45

Используйте wget:

wget -m -p -E -k www.example.com

Опции объяснили:

-m, --mirror            Turns on recursion and time-stamping, sets infinite 
                          recursion depth, and keeps FTP directory listings.
-p, --page-requisites   Get all images, etc. needed to display HTML page.
-E, --adjust-extension  Save HTML/CSS files with .html/.css extensions.
-k, --convert-links     Make links in downloaded HTML point to local files.
150
ответ дан 16.12.2019, 22:45

Попробуйте браузер BackStreet.

Это - свободный, мощный офлайновый браузер. Высокая скорость, загрузка веб-сайта многопоточности и программа просмотра. Путем создания нескольких одновременных запросов к серверу Браузер BackStreet может быстро загрузить весь веб-сайт или часть сайта включая HTML, графику, Апплеты Java, звуковые и другие определяемые пользователем файлы, и сохранил все файлы в жестком диске, или в их собственном формате, или как сжатый zip-файл и представление офлайн.

enter image description here

3
ответ дан 16.12.2019, 22:45

WebZip является хорошим продуктом также.

4
ответ дан 16.12.2019, 22:45

Теги

Похожие вопросы