Перейти к содержимому
Попробовать

Проверка robots.txt онлайн

Введите URL сайта — загрузим robots.txt, разберём все правила, найдём блокировки Googlebot и Яндексбота, синтаксические ошибки и дадим рекомендации.

Нужен полный аудит сайта?

Проверьте все страницы сразу — до 50 бесплатно. Получите отчёт в PDF и XLSX за минуту.

Начать аудит бесплатно

Robots.txt: что это такое и как влияет на SEO

Robots.txt — первое, что проверяет поисковый робот при заходе на сайт. Ошибки в этом файле могут полностью остановить индексацию или скрыть важные страницы от Google и Яндекса. При этом файл читается без авторизации и виден всем — включая конкурентов.

Критические ошибки, которые нужно исправить сразу

Самая опасная ошибка — Disallow: / для Googlebot или *. Она блокирует весь сайт. Часто появляется при копировании robots.txt с тестового домена на боевой. Проверьте ваш файл прямо сейчас — особенно если вы недавно переносили сайт.

Что нельзя блокировать в robots.txt

Блокировка CSS и JavaScript файлов в robots.txt была распространённой практикой несколько лет назад. Сегодня это ошибка: Google рендерит страницы как браузер, и если он не может загрузить стили или скрипты — страница будет оценена ниже. Никогда не добавляйте в Disallow пути к /css/, /js/, /static/, /wp-includes/.

Sitemap в robots.txt

Укажите путь к карте сайта директивой Sitemap: — это ускоряет обнаружение новых страниц поисковыми системами. Яндекс и Google автоматически читают эту директиву. Это особенно важно для сайтов с нестандартным расположением sitemap.xml.

Crawl-delay и краулинговый бюджет

Директива Crawl-delay поддерживается Яндексом, но не Google. Значение выше 5 секунд критично замедляет переобход сайта. На большом сайте (10 000+ страниц) высокий Crawl-delay означает, что часть страниц может не переобходиться неделями. Если вам нужно ограничить нагрузку от Яндексбота — используйте настройки в Яндекс.Вебмастере.

Разница robots.txt и тега noindex

Robots.txt запрещает краулинг, но не удаляет страницы из индекса — если на них ведут внешние ссылки, они могут оставаться в поиске без контента. Тег <meta name="robots" content="noindex"> исключает страницу из индекса, но не запрещает краулинг. Для полного исключения нужны оба инструмента.

Частые вопросы

Что такое robots.txt?

Robots.txt — текстовый файл в корне сайта, который управляет поведением поисковых роботов. Он указывает, какие страницы можно краулить, а какие нет. Читается всеми поисковыми системами (Google, Яндекс, Bing) перед началом обхода.

Как Disallow: / влияет на индексацию?

Disallow: / в группе User-agent: * или Googlebot означает полный запрет краулинга. Это самая критичная ошибка — сайт перестаёт индексироваться. Особенно часто встречается при копировании robots.txt с тестового сервера на боевой.

Что делает директива Crawl-delay?

Crawl-delay задаёт паузу в секундах между запросами робота. Google не поддерживает директиву, Яндекс — поддерживает. Значение выше 5 секунд значительно замедляет переобход и может негативно повлиять на краулинговый бюджет.

Нужно ли указывать Sitemap в robots.txt?

Да, рекомендуется. Директива Sitemap: https://example.com/sitemap.xml помогает поисковым системам быстро найти карту сайта. Яндекс и Google обрабатывают эту директиву автоматически.

Почему опасно блокировать CSS и JS в robots.txt?

Google рендерит страницы как браузер. Если CSS и JS заблокированы, Googlebot не сможет корректно отрисовать страницу и оценить её контент. Это может снизить позиции. Не добавляйте в Disallow пути к /css/, /js/, /static/.

В чём разница между Allow и Disallow?

Disallow запрещает краулинг указанных URL. Allow явно разрешает — используется для исключений из Disallow. При конфликте приоритет имеет более длинный путь.

Как работает директива Host?

Host — директива Яндекса для указания предпочтительного зеркала (с www или без). Google не поддерживает. Помогает Яндексу определить главное зеркало при наличии дублей.

Инструмент бесплатный?

Да, проверка robots.txt полностью бесплатна и не требует регистрации. Для полного SEO-аудита сайта (до 50 страниц бесплатно) воспользуйтесь основным инструментом SEO Crawler.

Полезные статьи

Похожие инструменты