Содержание

Битые ссылки — что это, как проверить, найти и сиправить битую ссылку на сайте.

Поисковые системы совершенствуют алгоритмы ранжирования и стараются выводить в результатах поиска наиболее качественные ресурсы, отвечающие запросам пользователей. Соответственно, владельцы сайтов вкладывают много сил, чтобы именно их ресурсы занимали наивысшие позиции. Давайте представим, что вы ищете беговые кроссовки из последней коллекции известного бренда. Вы кликаете по нужной ссылке в результатах поиска и попадаете не на страницу магазина с желаемым товаром, а на экран с печальной надписью «404 Not Found», «Страница не найдена», «Нет такой страницы» и все в таком духе.

Страница 404 на примере Google

Такая ситуация может случиться и при переходе по внутренним ссылкам сайта. Давайте разберемся, почему так происходит и как с этим бороться.

Что такое битые ссылки

Битая ссылка – это гиперссылка на страницу, адрес которой был изменен или она была удалена с сайта.

Иными словами, по данному адресу страницы больше нет, и при запросе к серверу он возвращает код ответа 4xx Client Error: чаще всего «404 Not Found» и в редких случаях – «410 Not Found» (окончательное удаление адреса из индекса поисковых систем).

На несуществующие страницы могут вести ссылки на самом сайте (внутренние битые ссылки) или размещенные на сторонних ресурсах (внешние битые ссылки). Одна из базовых задач по оптимизации веб-ресурса заключается в регулярной проверке на наличие битых ссылок и их устранение.

Как появляются битые ссылки

Причинами появления ссылок на несуществующие адреса являются:

  • удаление контента из-за его неактуальности;
  • изменение URL-адреса;
  • ошибки в настройке веб-сервера;
  • технические ошибки на сайте;
  • специальный/случайный ввод в адресную строку браузера несуществующих адресов.

Рассмотрим их подробнее.

Удаление неактуального контента

Часто возникают ситуации, когда какие-то товары, услуги, а иногда и целые разделы сайта становятся неактуальными: например, в случае обновления ассортимента. Многие владельцы сайтов просто удаляют такие страницы. При этом они забывают, что на них могут вести внутренние или внешние ссылки. После удаления страниц они автоматически станут нерабочими, притом что часть этих страниц могла бы ранжироваться в поисковых системах на хороших позициях.

В итоге пользователь перейдет по такой гиперссылке и увидит экран с ошибкой:

Хорошо, когда страница 404 содержит дополнительное пояснение о том, что страница была перемещена или удалена

Поэтому важно следить, чтобы внутри сайта не оставалось нерабочих ссылок. А при удалении по возможности заранее настраивать 301-й редирект на актуальную или максимально близкую по содержанию страницу.

301 Редирект — это способ постоянного перенаправления поисковых систем и посетителей сайта на адрес, который отличается от изначально запрашиваемого.

Изменение адреса/структуры

Контент-менеджеры сайтов часто не имеют технических навыков. Из-за этого возникают ситуации, когда они пытаются изменить заголовок страницы или название ссылки на страницу из меню. Из-за особенностей движка сайта или случайной ошибки меняется URL-адрес страницы. Это означает, что по старому адресу страница стала недоступной и все ссылки на нее автоматически будут отдавать 404-ю ошибку.

Например, была страница с адресом https://site.ru/novosti/novost-1/, а после правок заголовка контенщиком адрес изменился на https://site.ru/novosti/samaya-svezhaya-novost-1/.

Другая ситуация – изменение адреса из-за смены родительского раздела. Она происходит, когда вы меняете структуру, переносите страницу из одного раздела в другой. Например, на сайте в разделе «Обувь» изначально было деление по типу обуви: ботинки, кроссовки, туфли и т. д., а потом уже на мужские, женские, детские. Соответственно, товар имеет привязку:

https://site.ru/obuv/krossovki/muzhskie/tovar1/

Вы решили сделать сначала деление по полу, а потом уже по типу обуви. Следовательно, адрес товара в разделе приобретет вид https://site.ru/obuv/muzhskaya/krossovki/tovar1/

Или же решили добавить дополнительные подкатегории по сезону: https://site.ru/obuv/krossovki/muzhskie/zimnie/tovar1/

Во всех этих случаях происходит одно и то же: по изначальному адресу страница перестает существовать, все ссылки на нее становятся битыми.

При изменении структуры сайта или исправлении адреса страницы не забывайте обязательно настраивать 301 редирект со старого адреса на новый, а внутренние ссылки сайта заменять на актуальные.

Технические ошибки на стороне сервера

К появлению 404-х ошибок на сайте могут приводить и некорректные настройки веб-сервера. Например, когда движок сайта использует ЧПУ (человекоподобный URL), а сервер не настроен на переадресацию входящих запросов. Или когда при переходе сайта на защищенный протокол не было настроено перенаправление с http на https. Также причиной ошибок может служить кэширование страниц на стороне сервера перед выдачей клиенту.

Случайные ошибки и человеческий фактор

Никто не застрахован от ошибок. Достаточно опечатки в одну букву, чтобы получить нерабочую гиперссылку. Поэтому каждый раз после обновления контента важно проверять работоспособность перелинковки.

Программы для проверки битых ссылок на сайте

Как часто нужно проводить поиск битых ссылок и с помощью чего это делать? Мы рекомендуем регулярные проверки, не реже 1 раза в месяц. Если контент вашего ресурса обновляется часто, проверки можно проводить более регулярно: например, для новостных сайтов раз в неделю.

Рассмотрим наиболее популярные программы для поиска битых ссылок:

  • Screaming Frog SEO Spider Tool. Программа имеет широкий спектр настроек и анализирует много параметров, в том числе показывает, на каких страницах и какие ссылки битые. Подходит для анализа не очень больших сайтов, т.к. даже платная версия имеет ограничение по количеству сканируемых URL-адресов. В бесплатном варианте вы сможете проверить лишь 500 УРЛов.
  • Netpeak Spider. Также очень удобная платная программа с большим набором параметров для анализа.
  • Xenu’s Link Sleuth. Программа предназначена только для операционной системы Windows и имеет свои недостатки, но является бесплатной.
  • Majento SiteAnalyzer. Также бесплатная программа для анализа вашего сайта.

Онлайн сервисы проверки битых ссылок на сайте

Онлайн-сервисы — их достаточно много, но не все хорошо справляются со своей задачей. Отмечу несколько достойных вариантов:

  • Online Broken Link Checker. Имеет бесплатную версию для проверки до 3000 URL, но с ограничениями и без возможности экспорта результатов. Коммерческая версия обладает более широкими возможностями, плюс есть возможность персональной настройки.
  • Deadlinkchecker. Сервис дает проверить бесплатно до 2001-й ссылки.

Проверка битых ссылок в «Яндекс.Вебмастере» и «Google Search Console»

Нельзя не сказать про отслеживание внутренних и внешних битых ссылок на сайте с помощью сервисов «Яндекс» и Google для вебмастеров. В панелях «Яндекс.Вебмастер» и Google Search Console вы сможете увидеть страницы с 404-й ошибкой, которые были исключены из индекса, проанализировать, что явилось причиной их появления и принять решение о необходимости их исправления.

Так это выглядит в «Яндекс.Вебмастере»:

Проверяем 404-е страницы в разделе «Страницы в поиске» меню «Индексирование»

А вот так в Google Search Console:

Проверяем 404-е страницы в разделе «Покрытие» меню «Индекс»

Читайте также:

Отличия SEO под Яндекс и Google

Как исправить битые ссылки

Для исправления битых ссылок рекомендуется следующее:

  1. Обязательная замена внутренних ссылок на работающие или их удаление.
  2. Настройка 301-го редиректа с несуществующего адреса на актуальную страницу или максимально близкую по содержанию. Этот вариант рекомендован, если удаленная/перенесенная страница находилась в продвижении, приносила трафик или на нее идет ссылочный вес, который вы хотели бы сохранить и перенаправить на другой адрес.

При настройке 301 редиректа, последовательные переадресации не должны иметь более 3 переадресаций — это снижает передаваемый вес и замедляет скорость загрузки страниц.

Не забывайте проводить регулярные проверки на работоспособность внутренних ссылок, это повышает доверие к ресурсу ваших посетителей и поисковых систем.

Опасны ли битые ссылки и нужно ли с ними бороться?

Влияют ли битые ссылки на ранжирование интернет-ресурса? Напрямую – нет, потому что не существует такого фактора ранжирования, когда за подобные ссылки вы однозначно получите понижение позиций. Однако это не значит, что битые ссылки на сайте никак не скажутся на результатах вашего продвижения.

Читайте также:

Алгоритм Google Penguin: как выйти из-под фильтра и не попасть под санкции

Битые ссылки можно сравнить с дверью, за которой пользователь натыкается на кирпичную стену. Это явно не добавляет ему расположения к сайту. А что если таких ссылок достаточно много и посетитель за одно посещение сталкивается с несколькими из них или ваша страница 404 ничего об это не говорит, а представлена в стандартном варианте?

Для рядового пользователя написанное будет ничем не лучше иероглифов по понятности

После такого большинство посетителей просто закроет вкладку и покинет сайт раз и навсегда, так как вы не открыли перед ним другие «двери». Упущенный клиент, упущенная выгода, прерванная сессия повлекут за собой ухудшение поведенческих факторов. А поведенческие факторы, в свою очередь, имеют весомое значение для ранжирования интернет-ресурса в поисковых системах.

Оформление страницы 404-ой ошибки в стиле сайта (с наличием меню, выводом дополнительных блоков или ссылок для привлечения и удержания) поможет не потерять потенциального клиента.

Страница 404 сайта kokoc.com: визуальная и текстовая часть максимально дружелюбно сообщают пользователю о том, случилось и как решить проблемы

Инструкция по поиску битых (нерабочих) ссылок на сайте

#Оптимизация сайта #Внутренняя перелинковка

#23

Ноябрь’17

8

Ноябрь’17

8

Наличие битых ссылок негативно сказывается на восприятии сайта поисковыми системами, ухудшает поведенческие факторы, портит впечатление от сайта у пользователя, мешает правильному распределению ссылочного веса. Чтобы их обнаружить, необходимо проводить регулярные проверки сайта, используя специальные инструменты.

Яндекс.Вебмастер

Если вы владеете правами на веб-сайт, то проще всего найти неработающие ссылки в инструменте Яндекс.Вебмастера: «Ссылки». Для этого необходимо перейти на вкладку «Внутренние ссылки» и выбрать те, которые запрещены к индексированию или не существуют.

Специальные программы-парсеры

Мы в своей работе используем программу Screaming Frog, которая позволяет сканировать и получать подробную информацию о страницах сайта.

Она имеет платную и бесплатную версию. Бесплатная версия позволяет обойти 500 страниц и подходит для небольших сайтов. Скачать ее можно по ссылке: https://www.screamingfrog.co.uk/seo-spider/.

Для того чтобы найти битые ссылки, используя данную программу, необходимо указать адрес сайта и начать сканирование. После того, как лягушка обошла весь сайт, надо перейти на вкладку «Response Codes», и выбрать код ответа 4**.

Далее выбираем интересующий нас URL и переходим на вкладку Inlinks — входящие ссылки. Перед вами появится список страниц, которые имеют ссылку на несуществующую страницу.

Бесплатный парсер сайта Xenu

Данный софт имеет полнофункциональную бесплатную версию. Принцип работы данной программы аналогичен: указываем необходимый адрес сайта и запускаем его сканирование.

Для поиска битых ссылок в поле «Status» ищем страницы со значением «not found», открываем URL Properties. Список ссылок будет представлен в поле pages linking to this one.

Похожее

Оптимизация сайта Внутренняя перелинковка

Поиск 404 ошибок на сайте

Оптимизация сайта Внутренняя перелинковка

Циклические ссылки на сайте

Оптимизация сайта Внутренняя перелинковка

#136

Поиск 404 ошибок на сайте

Август’19

1633

Оптимизация сайта Внутренняя перелинковка

#134

Циклические ссылки на сайте

Июль’19

7923

Оптимизация сайта Внутренняя перелинковка

#93

Поиск исходящих ссылок

Ноябрь’18

10534

9

Оптимизация сайта Внутренняя перелинковка

#89

Что такое анкор ссылки

Ноябрь’18

18715

8

Оптимизация сайта Внутренняя перелинковка

#61

Правильная перелинковка сайта

Февраль’18

3900

8

Бесплатная проверка неработающих ссылок — Инструмент проверки мертвых ссылок от Ahrefs

Зарегистрироваться

Бесплатные инструменты SEO /

Проверьте свой сайт на наличие неработающих входящих и исходящих ссылок за считанные секунды.

Проверка обратной ссылки

/

Управление авторитета веб-сайта

/

Например,

AHREFS.COM

YEP.com

Powered Loading Link Data

Ахрефс. крупнейшая база данных обратных ссылок в отрасли.

Наш поисковый робот является вторым по активности после Google, и мы обновляем нашу базу данных обратных ссылок свежими данными каждые 15 минут.

Перевод: Мы постоянно обнаруживаем новые неработающие ссылки.

Попрощайтесь с неработающими ссылками

Мгновенный просмотр каждой неработающей исходящей ссылки на вашем сайте. Отсортируйте и отфильтруйте список, чтобы определить приоритет исправлений.

Регулярно проверяйте наличие новых неработающих ссылок по мере их обнаружения. Пресекайте их в зародыше, прежде чем они негативно повлияют на SEO.


Восстановите сломанные страницы

Просмотрите мертвые страницы, на которые чаще всего ссылаются.

Восстановите или перенаправьте их на подходящие альтернативы, чтобы восстановить «ссылочный капитал» и потенциально улучшить рейтинг.


Устранение мертвых внутренних ссылок

Просмотреть все неработающие страницы со ссылками из других мест на вашем сайте.

Улучшите навигацию и возможности сканирования, удалив ссылки или восстановив или перенаправив мертвые страницы.


Планирование обнаружения новых неработающих ссылок

Выполнять ежедневное, еженедельное или ежемесячное сканирование для проверки новых неработающих ссылок — как внутренних, так и внешних.

Сравните разницу в количестве проблем между сканированиями, чтобы отслеживать ход выполнения.


Поиск и исправление неработающих редиректов

Проверьте домены, ссылки на которые вы не помните — они могли быть перенаправлены.

Удалите или замените ссылки, чтобы улучшить взаимодействие с пользователем и убедиться, что вы не ссылаетесь на вредоносные веб-сайты, которые могут повредить вашей поисковой оптимизации.


Создайте больше ссылок

Превратите неработающие страницы ваших конкурентов, на которые чаще всего ссылаются, в возможности для создания неработающих ссылок.

Создайте что-то похожее на одну из их мертвых страниц, а затем попросите тех, кто ссылается на эту страницу, вместо этого ссылаться на вас.

Узнайте больше в нашем руководстве по созданию битых ссылок


Экспорт данных в два клика

Получите любой отчет Ahrefs в формате CSV за считанные секунды. Отправьте файл коллеге или фрилансеру, чтобы он передал на аутсорсинг важные SEO-задачи.


Руководства по построению ссылок

Создание битых ссылок: полное руководство

Узнайте, что такое создание битых ссылок, работает ли оно до сих пор и как с его помощью получить обратные ссылки.

Руководство для начинающих по линкбилдингу

Все, что вам нужно знать о линкбилдинге для SEO. Что это такое, как это работает, что делает ссылку хорошей, как ее построить и многое другое.

9 простых стратегий создания ссылок (которые может использовать каждый)

Вы изо всех сил пытаетесь создать обратные ссылки на свой веб-сайт? Попробуйте эти 9простые (но эффективные) стратегии линкбилдинга сегодня.

Начать

Начните использовать полную версию средства проверки битых ссылок Ahrefs уже сегодня!

Посмотреть цены

Часто задаваемые вопросы — Проверка мертвых ссылок

Вот некоторые распространенные вопросы и ответы на них.
Описание возможностей Dead Link Checker можно найти здесь.
Щелкните здесь для получения списка кодов ошибок и их значений.
Если у вас есть вопрос, на который здесь нет ответа, вы можете связаться с нами по телефону:
[email protected]



В: Что такое мертвые/битые ссылки?

Мертвые или неработающие ссылки — это ссылки на веб-странице, которые не ведут пользователя туда, куда предполагал автор. Это может быть связано с тем, что ссылка была неправильно настроена автором сайта, или из-за того, что веб-страница назначения больше не существует, или из-за какой-либо другой проблемы с доступом к месту назначения (например, сервер не отвечает). Когда нажата мертвая ссылка, сервер обычно возвращает код ошибки (например, 404 Not Found или 500 Server Error), или тайм-аут происходит, если сервер не существует или не возвращает никакой информации в течение заданный промежуток времени.

В: Почему мне нужно проверять мой сайт на наличие битых ссылок? Как я могу проверить свой сайт на битые ссылки?

Неработающие ссылки являются источником раздражения для пользователей и снижают рейтинг вашего сайта в результатах поиска. Сайты с более низким рейтингом получают меньше посетителей. Использовать deadlinkchecker.com, чтобы найти неработающие ссылки на вашем сайте, чтобы их можно было исправить, чтобы восстановить рейтинг сайта и привлечь больше веб-трафика.

В: Эта услуга бесплатна?

Интерактивная версия этого сервиса бесплатна. Вы можете ввести URL-адрес веб-сайта, и он будет просканирован на наличие мертвых ссылок. Если вы вошли в систему с действительным адресом электронной почты, вы может запросить отправку отчета по электронной почте после завершения сканирования, и вы можете указать несколько веб-сайтов для сканирования за одну операцию. Если вы делаете небольшой ежемесячный платеж Чтобы подписаться на нашу автоматическую проверку, вы можете настроить ежедневное, еженедельное или ежемесячное расписание для автоматического сканирования ряда сайтов без каких-либо дополнительных действий. Отчеты будут отправлены вам по электронной почте с подробной информацией о любых мертвых ссылках, обнаруженных на ваших веб-страницах.

В: Что такое SEO?

SEO расшифровывается как поисковая оптимизация. Поисковые системы, такие как Google, Bing и т. д., упорядочивают свои результаты по ряду критериев, включая воспринимаемое качество сайт индексируется. SEO предназначено для того, чтобы сайт занимал как можно более высокие позиции в результатах поисковой системы. Удаляя мертвые ссылки со своих веб-страниц, вы можете сигнализировать поисковых систем, что сайт является активно поддерживаемым и надежным источником информации.

В: Что означают разные коды состояния сервера?

Некоторые распространенные коды состояния сервера:

  • 302 — страница перемещена на новое место
  • 403 — запрещено
  • 404 — страница не найдена
  • 500 — внутренняя ошибка сервера

Дополнительная информация можно найти здесь.

В: Как запланировать сканирование сайта?

Предполагая, что вы подписались на службу автоматической проверки и вошли в систему DeadLinkChecker.com, используя свой адрес электронной почты, вы можете настроить сканирование по расписанию, щелкнув пункт меню «автоматическая проверка». При нажатии на кнопку «Добавить новое сканирование» появится небольшое окно, в котором вы можете введите URL-адрес веб-сайта для сканирования, когда должно произойти следующее сканирование, как часто следует сканировать сайт и глубину сканирования. Щелчок кнопка «Сейчас» запланирует запуск сканирования как можно скорее после того, как вы нажмете «Создать».
 
Когда сканирование запланировано, вы сможете проверить его статус или отредактировать детали сканирования. После запуска сканирования вы будете отправил по электронной почте отчет с подробной информацией о любых найденных мертвых ссылках.

В: Как исправить плохие ссылки?

Чтобы исправить неверную ссылку, необходимо определить, почему ссылка помечена как неверная. Если это ссылка на несуществующую страницу (ошибка 404), то, скорее всего, ссылка была неправильно набран в исходном HTML-коде (в этом случае вам необходимо его отредактировать) или целевая страница была временно или окончательно удалена или переименована. Если пункт назначения больше не существует тогда вам либо нужно сделать ссылку на другую страницу, либо полностью удалить ссылку. В любом случае, если вы хотите изменить ссылку, то вам нужно будет иметь возможность редактировать HTML-код веб-сайта или иметь доступ к кому-то, кто может сделать это за вас.

В: Могу ли я проверить защищенные паролем страницы?

Нет, к сожалению, невозможно использовать средство проверки мертвых ссылок для сканирования страниц, защищенных паролем. Для этого наш сервер должен знать и хранить имя пользователя и пароль. сведения о сканируемом сайте, что может представлять угрозу безопасности.

В: Могу ли я ограничить сканирование подкаталогом моего сайта?

Да — если вы начинаете сканирование со страницы в подкаталоге, то все ссылки, найденные на этой странице, будут проверены на существование, но только страницы в этом подкаталоге (или его потомке) будут проверены. отсканировано для дальнейших ссылок.
 
Например, начиная с http://www.example.com/news/index.html, будут проверяться ссылки на такие страницы, как http://www.example.com/weather.html, но эта страница не будет сканироваться на наличие больше ссылок, так как он не находится в подкаталоге новостей/. Однако страница http://www.example/com/news/current/story1.html будет просканирована на наличие ссылок, так как она находится в подкаталоге news/.
 
Обратите внимание, что это функция только автоматической проверки.

В: Что такое файл robots.txt?

В корне большинства веб-сайтов находится файл robots.txt, например http://www.microsoft.com/robots.txt. Этот файл используется, чтобы сообщить любая система, которая сканирует сайт (например, средство проверки ссылок или сканер сайта поисковой системы), какие страницы или папки не следует сканировать или индексировать. Файл robots.txt также можно использовать для указания местоположения карта сайта и уменьшить скорость, с которой автоматические системы запрашивают страницы с сайта (используя директиву ‘crawl-delay’). Обратите внимание, что сканер не обязан следовать инструкциям в файле robots.txt. это просто просьба вести себя определенным образом, но хорошо воспитанные сканеры попытаются подчиниться директивам. Dead Link Checker следует директивам «запретить» и «задержка сканирования», где это возможно. Используемый пользовательский агент от Dead Link Checker — «www.deadlinkchecker.com». Для получения дополнительной информации о robots.txt посетите http://www.robotstxt.org/.

В: Могу ли я исключить из проверки определенные ссылки или подкаталоги?

Этого можно добиться двумя способами. Если вы можете редактировать файл robots.txt на сервере веб-сайта, вы можете добавить директиву, запрещающую проверке ссылок доступ к определенным страницам или ко всем страницам в определенном подкаталоге. Например, чтобы исключить папку shoppingbasket/ (и все ее потомки), добавьте в robots.txt следующее:

Агент пользователя: www.deadlinkchecker.com
 Запретить: /корзина покупок/
 
В качестве альтернативы, при использовании автоматической проверки в редакторе запланированного сканирования есть «расширенный» раздел, где вы можете указать список строк, которые будут использоваться для предотвращения проверки определенных URL-адресов. URL-адреса, содержащие любые строк, указанных в этом разделе, не будут проверены на наличие ошибок. В: Не все страницы моего сайта были отсканированы, почему?

Средство проверки мертвых ссылок проверяет ссылки на исходной странице, предоставленной ему, и, если какие-либо из этих ссылок находятся на том же веб-сайте, оно также проверяет связанные страницы на наличие мертвых ссылок и так далее. Глубина этого сканирования ограничена 10 для полного сканирования, поэтому любые ссылки, которые доступны только при прохождении большего количества шагов, не будут проверяться. Кроме того, страницы, на которые нет входящих ссылок, не будут обнаружены. Еще одно соображение заключается в том, что изменение субдомена рассматривается как изменение веб-сайта, поэтому ссылки на страницах этих доменов не проверяются (даже если они указывают на исходный домен). Например, при сканировании сайта http://www.example.com, ссылка на http://test.example.com будет проверена, но содержимое этой страницы не будет дополнительно проверено на наличие ссылок.

Ссылки также могут не сканироваться, если они запрещены в файле robots.txt сайта. Кроме того, Auto Checker будет игнорировать дочерние ссылки на связанных страницах. с использованием атрибута rel=nofollow: сама ссылка будет проверена, но не будет сканироваться на наличие дополнительных ссылок. Страницы, содержащие тег, также не будут проверьте наличие дополнительных ссылок в Auto Checker. Эту обработку ссылок или страниц «nofollow» можно переопределить в расширенном разделе сканирования. всплывающее диалоговое окно настроек с помощью флажка «Переопределить директивы nofollow».

В: Почему средство проверки мертвых ссылок сообщает о ссылках как о плохих, хотя я могу открыть их в своем браузере?

В некоторых случаях средство проверки мертвых ссылок может не получить доступ к странице, доступной из вашего браузера. Наш сервер находится в США, поэтому, если есть проблема с доступом к вашему сайту оттуда, или если ваш сайт обслуживает различный контент в зависимости (например) от географического местоположения отправителя запроса, его пользовательского агента или IP-адреса, тогда вы можете увидеть сообщения об ошибках.
 
Некоторые сайты допускают доступ к чему-либо, кроме стандартного веб-браузера, и возвращают такие коды ошибок, как как 404 (не найдено) или 403 (запрещено) для DeadLinkChecker.com
 
Некоторые веб-браузеры автоматически исправляют URL-адреса, которые на самом деле недействительны. Например, URL-адреса не может содержать символ обратной косой черты ‘\’. Chrome и IE, кажется, молча преобразуют его в косую черту «/», но в других браузерах нет. Средство проверки неработающих ссылок будет помечать такие URL-адреса как ошибки.
 
Иногда страницы временно недоступны, возможно, из-за проблем с загрузкой сервера. Dead Link Checker повторит попытку ссылки после паузы, но если он не может получить доступ к странице, он будет помечен как плохая ссылка, даже если это возможно чтобы перейти на страницу позже.
 
Сканирование Auto-Checker можно настроить так, чтобы оно игнорировало URL-адреса, которые, как вы знаете, являются действительными — щелкните ссылку «Дополнительно». в нижней части поля редактирования «Сканирование по расписанию». Вы также можете настроить время ожидания DeadLinkChecker до решение о том, что страница не отвечает.

В: Будет ли инструмент работать во внутренней сети?

Средство проверки мертвых ссылок — это онлайн-инструмент, который не будет работать в интрасети, потому что веб-страницы должны быть видны нашему серверу, который является внешним по отношению к вашей интрасети.

В: Будет ли инструмент работать на динамических (ASP/JSP/PHP/Rails) сайтах?

Средство проверки мертвых ссылок будет работать на динамических страницах. Однако он проверяет любой заданный URL-адрес только один раз в сеансе сканирования, поэтому, если содержимое активной страницы изменяется от одного вызова к другому, тогда только ссылки, найденные при первом столкновении. будет обработан.

В: В чем разница между услугами Site Checker, Multi-Site Checker, Auto-Checker и Auto-Checker Premium и Professional?

Site Checker — это бесплатный инструмент, который позволяет сканировать один веб-сайт на наличие мертвых ссылок. Multi-Site Checker также можно использовать бесплатно, но для этого требуется адрес электронной почты. в качестве имени для входа. Затем вы можете сканировать несколько сайтов за один раз, и отчет автоматически отправляется вам по электронной почте в конце сканирования. Auto-Checker — наш начальный уровень абонентское обслуживание. За небольшую ежемесячную плату вы можете автоматически сканировать до пяти сайтов по регулярному расписанию, при этом никаких дополнительных действий на вашем устройстве не требуется. часть. Отчет будет отправлен вам по электронной почте после каждого сканирования, а также доступен в Интернете. Auto-Checker Premium и Professional позволяют проверять большее количество сайтов с большим количеством ссылок. на каждом сайте.

В: Как снизить нагрузку на сервер при его сканировании?

Средство проверки мертвых ссылок оптимизировано для максимально быстрого сканирования веб-сайтов, при этом скорость сканирования автоматически настраивается для уменьшения количества ошибок сервера. Однако некоторые серверы могут испытывать трудности, если страницы запрашиваются слишком быстро или запросы может интерпретироваться как атака типа «отказ в обслуживании». Вы можете снизить скорость запроса страниц, изменив файл robots.txt на своем сервере, включив в него секция:

 Агент пользователя: www.deadlinkchecker.com
 Задержка сканирования: 1
 
Это ограничит количество запросов страниц примерно до одного в секунду. Сканирование будет значительно замедлено, но нагрузка на сервер будет пропорционально снижена.
 
В качестве альтернативы при использовании функции автоматической проверки вы можете получить доступ к «расширенным» настройкам в редакторе запланированного сканирования и ввести значение «Интервал», чтобы указать минимальная продолжительность между последовательными запросами страниц на сканируемом веб-сайте. В: Как средство проверки мертвых ссылок идентифицирует себя при сканировании веб-сайта?

Средство проверки мертвых ссылок использует строку пользовательского агента, начинающуюся с «www. deadlinkchecker.com», при запросе веб-страниц.
IP-адрес сервера — 74.208.42.172 (до марта 2021 года — 82.165.25.77)

. Вопрос. Как я могу проверить текущую автоматическую проверку?

При использовании автоматической проверки вы можете посетить страницу автоматической проверки и просмотреть список созданных вами расписаний проверки. Детали все выполняемые проверки перечислены ниже этого раздела — вы можете увидеть статистику проверки, URL-адрес недавно проверенной ссылки и кнопки которые позволяют прервать сканирование или запросить промежуточный отчет об ошибке.

В: Могу ли я уменьшить количество получаемых писем?

При использовании автоматической проверки вы можете отредактировать «расширенные» настройки сканирования и установить флажок «подавлять электронную почту, если нет ошибок» — это остановить проверку мертвых ссылок от отправки вам электронных писем, если запланированное сканирование не обнаружило ошибок.

В: Могу ли я изменить адрес электронной почты, на который отправляются отчеты?

Из соображений безопасности средство проверки мертвых ссылок отправляет отчеты по электронной почте только зарегистрированному владельцу учетной записи. Вы можете изменить адрес электронной почты адрес вашей учетной записи, когда вы вошли в систему, щелкнув значок настроек в правом верхнем углу. В качестве альтернативы следует можно настроить программное обеспечение электронной почты для пересылки сообщения электронной почты с отчетом третьей стороне в зависимости от отправителя и/или строки темы.

В: Повлияет ли сканирование Dead Link Checker на результаты Google Analytics?

Вы можете настроить Google Analytics для фильтрации всех запросов с IP-адреса средства проверки неработающих ссылок (см. «Как идентифицирует себя средство проверки неработающих ссылок?»). За инструкции по настройке Google Analytics смотрите здесь.

Вопрос. Считаются ли страницы с разными строками запроса разными страницами?

Веб-страницы, созданные сервером, могут изменять свое содержимое в зависимости от переданных им параметров, поэтому средство проверки неработающих ссылок рассматривает страницы с разными строками запроса как отдельные страницы, которые проверяются отдельно.

В: Могу ли я импортировать результаты сканирования в электронные таблицы, такие как Excel?

Отчеты, сгенерированные подписной службой Auto-Check, также можно загрузить в виде файла CSV, который можно сохранить на свой компьютер и импортировать. в Excel и т. д. для дальнейшего анализа. Ссылка для загрузки показана в нижней части онлайн-отчета.

Q: Что такое петля перенаправления?

Когда запрашивается URL-адрес, сервер может ответить кодом состояния перенаправления (301 или 302), указывающим новое местоположение, которое должно быть запрошенный для ресурса. Если это новое местоположение совпадает с исходным запросом или если оно, в свою очередь, перенаправляет на исходный URL-адрес, то возникает петля перенаправления. существует — запросы будут циклироваться бесконечно, никогда не возвращая запрошенную информацию. Dead Link Checker сообщает об этой ситуации как цикл перенаправления. Большинство браузеров выдают аналогичное сообщение об ошибке после выполнения ряда перенаправлений.

Примечание: Некоторые веб-сайты или серверы ведут себя иначе, если файлы cookie отключены. Средство проверки мертвых ссылок Проверка сайта и множественная проверка не распространяют файлы cookie при сканировании сайта, если средство проверки мертвых ссылок сообщает о петле перенаправления, но кажется, что ссылка работает правильно в браузере, возможно, посещение ссылки с отключенными файлами cookie вызовет ошибку. Автоматическая проверка распространяется куки только для внешних ссылок. Вы можете узнать, как отключить или включить файлы cookie на сайте www.whatarecookies.com/enable.asp

Вопрос. Как оптимизировать сканирование Auto-Checker?

Перед запуском сканирования Auto-Checker необходимо выполнить несколько шагов. Выполнение этих шагов поможет оптимизировать использование вашей квоты ссылок, минимизируйте нагрузку на сервер и убедитесь, что вы видите результаты сканирования как можно быстрее.

• Убедитесь, что электронные письма с адреса report_generator@deadlinkchecker. com не будут отклонены вашей почтовой программой. Ваши отчеты о сканировании обычно содержат много ссылок, и иногда это может привести к срабатыванию детекторов спама, которые затем отклонят электронное письмо. Иногда это приводит к тому, что они отправляются в папку со спамом, но если электронные письма возвращаются нам, это также может помешать отправке последующих электронных писем на вашу учетную запись.

• Используйте функцию «игнорировать» в настройках сканирования, чтобы запретить сканеру проверять ненужные URL-адреса на вашем сайте. Поле «игнорировать» позволяет ввести список текстовых фрагментов, и сканер будет игнорировать URL-адреса, содержащие любой из них. Например, если есть ссылку на каждой из страниц вашего сайта, чтобы добавить товар в корзину, то вам обычно не нужно проверять эти ссылки, поэтому вы можете отфильтровать их добавив /cart/ или /checkout/ или что-то подобное в список игнорирования — в зависимости от того, как устроен ваш сайт. Точно так же вы можете захотеть игнорировать URL-адреса, содержащие, например, /login или /search — проверьте свой веб-сайт на наличие таких URL-адресов перед началом сканирования.

• Убедитесь, что ваш сервер не интерпретирует сканирование как атаку, которая может привести к тому, что серверу проверки ссылок будет отказано в доступе к вашему сайту. Если в этом случае вы обычно увидите большое количество непредвиденных ошибок, обычно (но не всегда) 403 Forbidden, 503 Service Unreachable или 400 Bad Request. Если возможно, внесите в белый список IP-адрес нашего сервера (74.208.42.172), чтобы сканирование всегда было разрешено.

• На сайтах-каталогах или сайтах, содержащих большие списки элементов, часто есть опции для просмотра элементов страница за страницей с различными фильтрами. ограничивать или сортировать показанные элементы, например, по цвету или по производителю, или по тому и другому. Если эти параметры фильтра добавляются к URL-адресу с помощью ‘?’ параметры тогда средство проверки ссылок будет рассматривать каждую уникальную комбинацию терминов фильтра как новый URL-адрес. Это может привести к потенциально огромному количеству различных комбинаций, даже если существует вполне управляемое количество просматриваемых элементов каталога. Например, сайт со списком автомобилей. могут иметь варианты выбора по производителю, стилю, цвету, возрасту и цене с использованием URL-адреса, такого как

 findmeacar.com/list?manufacturer=ford-bmw-mercedes&style=coupe&color=red-green-black&age=3&price=10000-20000 
Если есть 10 разных производителей на выбор, 9 стилей, 15 цветов, 8 возрастных групп и 5 ценовых диапазонов, и если можно выбрать любой или все эти варианты, то это приведет к более чем 140 триллионам различных комбинаций! Это явно растратит всю вашу квоту на ссылки, не дав ничего полезного. Даже если в каждой категории можно сделать только один выбор (или ни одного), это приведет к более чем 95000 комбинаций.