Существует ли рабочий стол или веб-приложения, которые искали бы неработающие ссылки на моем веб-сайте?
Я хочу, чтобы это осталось в домене, который я даю ему и проверяю ссылки, которые идут от одной страницы до другого, а также ссылок, которые переходят к другим веб-сайтам. Я хотел бы его к отчету 404, 5XX, 3XX и другим ошибкам.
Настольные проверки ссылок
Веб-проверки ссылок
LinkChecker является свободным, GPL лицензировал блок проверки допустимости URL.
рекурсивная и многопоточная проверка
вывод в цветном или обычном тексте, HTML, SQL, CSV, XML или графике карты сайта в различных форматах
HTTP/1.1, HTTPS, FTP, mailto: новости: сппн: Telnet и локальный файл связывают поддержку
ограничение ссылки, сверяющейся с регулярным выражением, фильтрует для URL
поддержка прокси
авторизация имени пользователя/пароля для HTTP и FTP и Telnet
почести протокол исключения robots.txt
Поддержка cookie
HTML и проверка синтаксиса CSS
Антивирусная проверка
интерфейс командной строки
клиентский интерфейс GUI
(Быстрый) веб-интерфейс CGI (требует сервера HTTP),
Можно использовать инструмент проверки ссылки W3C - Проверка ссылок W3C.
Я использую дополнение LinkChecker Firefox для проверки единственных страниц (средство проверки W3C - другой, менее дружественная опция).
Для наборов страниц или всех сайтов, Сыщик Ссылки ранее упомянутого Xenu очень быстр как (в отличие от вышеупомянутых опций), это проверяет много ссылок одновременно.
Вы могли бы также рассмотреть выполнение wget
в -spider
режим. См. http://linux.die.net/man/1/wget для wget
страницы справочника :)
wget -spider <URL>
кажется, вроде того, что Вы спрашиваете.