Поиск инструмента для получения по запросу всего дерева веб-страниц с некоторыми опциями выбора [дубликат]

Возможный дубликат:
Как я могу загрузить весь веб-сайт

Я часто встречаюсь с веб-страницами, которые предлагают страницы руководства или другую информацию, доступную только с помощью оглавления, состоящего из ссылок на отдельные главы или абзацы. Часто отдельные листовые страницы затем состоят из нескольких строк только, так пересечение всего дерева является чрезвычайно громоздким.

То, что я ищу, является инструментом, который позволил бы мне вытягивать и комбинировать все страницы, на которые ссылаются ссылки начальной страницы в единственный связанный документ HTML, такой, что каждый мог, например, сохранить ту страницу и/или линейно просмотреть все дочерние страницы путем прокрутки, не имея необходимость нажимать и возвращаться 1000 раз. Это также позволило бы печатать весь набор, чтобы иметь руководство или перерыть его сразу и т.д.

Кто-либо знает, что хороший инструмент достигает этого? Идеально такой инструмент предложил бы некоторые критерии исключения (как, игнорируют все "задние" ссылки или ссылку на страницы справки или домашние страницы, который найден на каждой странице, и т.д.).

0
задан 20.03.2017, 12:17

2 ответа

Вы могли использовать wget в зеркальном режиме:

C:\MySites\> wget -m http://mymanuals.com/manuals/foobar

Зеркально отразил бы целый сайт http://mymanuals.com/manuals/foobar.

Другой вещью, которую я использовал с довольно хорошим успехом, является HTTrack, который снова зеркально отражает веб-сайт для Вас, но с хорошим фронтендом GUI.

1
ответ дан 24.11.2019, 12:05

wget получить все страницы. Вы могли использовать xhtml2pdf и pdftk для создания единого документа.

0
ответ дан 24.11.2019, 12:05

Теги

Похожие вопросы