Как я могу загрузить все страницы с веб-сайта?
Любая платформа прекрасна.
HTTRACK работает как чемпион на копирование содержания всего сайта. Этот инструмент может даже захватить части, должен был сделать веб-сайт с активной работой содержания кода офлайн. Я поражен материалом, который это может копировать офлайн.
Эта программа сделает все, чего Вы требуете ее.
Счастливый поиск!
Я не сделал этого за многие годы, но там существует все еще несколько утилит. Вы могли бы хотеть попробовать веб-Змею. Я полагаю, что использовал его несколько лет назад. Я помнил имя сразу же, когда я считал Ваш вопрос.
Я соглашаюсь с Stecy. Не куйте их сайт. Очень Плохо.
Wget является классическим инструментом командной строки для этого вида задачи. Это идет с большинством систем Unix/Linux, и можно получить его для Windows также. На Mac Домашнее пиво является самым легким способом установить его (brew install wget
).
Вы сделали бы что-то как:
wget -r --no-parent http://site.com/songs/
Для получения дополнительной информации см. Руководство Wget и его примеры, или например, они:
Я обращусь к буферизации онлайн то использование браузеров...
Обычно большинство браузеров использует кэш просмотра для хранения файлов, которые Вы загружаете с веб-сайта вокруг некоторое время так, чтобы Вы не загружали статические изображения и содержание много раз. Это может ускорить вещи вполне немного при некоторых обстоятельствах. Вообще говоря, большинство кэшей браузера ограничено фиксированным размером и когда он поразит тот предел, он удалит самые старые файлы в кэше.
ISPs имеют тенденцию иметь кэширующиеся серверы, которые сохраняют копии веб-сайтов, к которым обычно получают доступ, как ESPN и CNN. Это избавляет их от необходимости поразить эти сайты каждый раз, когда кто-то в их сети идет туда. Это может составить значительные сбережения в сумме дублированных запросов на внешние сайты к ISP.
DownThemAll является дополнением Firefox, которое загрузит все содержание (звуковые файлы или видеофайлы, например) для конкретной веб-страницы в одиночном нажатии. Это не загружает весь сайт, но это может быть видом вещи, которую искал вопрос.
Мне нравится Офлайновый Проводник.
Это - условно-бесплатное программное обеспечение, но это очень хорошо и просто в использовании.
Интернет-Менеджер загрузок имеет утилиту Site Grabber с большим количеством опций - который позволяет Вам полностью загрузить любой веб-сайт, который Вы хотите, способ, которым Вы хотите это.
Можно установить предел для размера страниц/файлов для загрузки
Можно определить номер сайтов ответвления для посещения
Можно изменить способ, которым ведут себя сценарии/всплывающие окна/дубликаты
Можно указать домен, только под тем доменом, все страницы/файлы, встречающие необходимые настройки, будут загружены
Ссылки могут быть преобразованы в офлайновые ссылки для просмотра
У Вас есть шаблоны, которые позволяют Вам выбрать вышеупомянутые настройки для Вас
Программное обеспечение не является бесплатным однако - видят, удовлетворяет ли оно Вашим потребностям, используйте пробную версию.
Необходимо смотреть на ScrapBook, расширение Firefox. Это имеет всесторонний режим получения.
Используйте wget:
wget -m -p -E -k www.example.com
Опции объяснили:
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
Попробуйте браузер BackStreet.
Это - свободный, мощный офлайновый браузер. Высокая скорость, загрузка веб-сайта многопоточности и программа просмотра. Путем создания нескольких одновременных запросов к серверу Браузер BackStreet может быстро загрузить весь веб-сайт или часть сайта включая HTML, графику, Апплеты Java, звуковые и другие определяемые пользователем файлы, и сохранил все файлы в жестком диске, или в их собственном формате, или как сжатый zip-файл и представление офлайн.