Перейти к содержимому
Попробовать

Чек-лист SEO-аудита сайта: 20 пунктов для новичков

SEO-аудит кажется сложным: сотни параметров, десятки инструментов, непонятные термины. На практике 80% проблем укладываются в 20 проверок, которые можно пройти за полчаса вручную или за минуту автоматически.

Этот чек-лист — пошаговое руководство для тех, кто делает SEO-аудит впервые. Каждый пункт содержит объяснение, способ ручной проверки и инструкцию, как автоматизировать процесс. Двадцать проверок разбиты на пять категорий: мета-теги, ссылки, контент, техническое SEO и скорость.

Мета-теги и заголовки (пункты 1–4)

Мета-теги — первое, что видит поисковая система и пользователь в выдаче. Ошибки здесь напрямую влияют на кликабельность (CTR) и индексацию. Подробнее о каждой проверке — в разделах SEO: title и SEO: мета-теги.

1. Title есть и уникален на каждой странице

Что проверяем. У каждой страницы должен быть заполненный тег <title>, и он не должен повторяться на других страницах сайта.

Почему важно. Title — главный сигнал для поисковой системы о содержании страницы. Если title отсутствует, поисковик сгенерирует его сам — и результат почти всегда будет хуже. Дублирующиеся title мешают поисковику различать страницы и выбирать нужную для показа.

Как проверить вручную. Откройте страницу, нажмите Ctrl+U (просмотр кода) и найдите тег <title> внутри <head>. Повторите для каждой страницы и сравните — дублей быть не должно.

Как проверить в SEO Crawler. Запустите аудит — seo-crawler.ru автоматически находит страницы без title и отмечает дубли во вкладке «Контент». Для быстрой проверки одной страницы — инструмент мета-тегов.

2. Title длиной 30–60 символов

Что проверяем. Длина title должна укладываться в 30–60 символов.

Почему важно. Слишком короткий title недостаточно информативен — поисковик может подставить свой вариант. Слишком длинный обрезается в выдаче, и пользователь не видит суть страницы. Оптимальная длина — 30–60 символов: достаточно для ключевых слов и понятного описания.

Как проверить вручную. Скопируйте текст из <title> и посчитайте символы в любом текстовом редакторе или онлайн-счётчике.

Как проверить в SEO Crawler. В отчёте для каждой страницы указана длина title. Страницы с title короче 30 или длиннее 60 символов помечаются предупреждением.

3. Meta description есть и содержит 120–160 символов

Что проверяем. На каждой странице должен быть тег <meta name="description"> длиной 120–160 символов.

Почему важно. Meta description формирует сниппет в поисковой выдаче — текст под заголовком, который читает пользователь перед кликом. Хороший description повышает CTR на 5–10%. Без него поисковик возьмёт случайный фрагмент текста со страницы.

Как проверить вручную. В коде страницы (Ctrl+U) найдите <meta name="description" content="...">. Проверьте наличие и длину.

Как проверить в SEO Crawler. Аудит показывает description и его длину для каждой страницы. Отсутствующие и слишком короткие/длинные описания выделены как проблемы.

4. H1 есть, один на страницу, не совпадает с title

Что проверяем. Каждая страница содержит ровно один тег <h1>, и его текст отличается от title.

Почему важно. H1 — основной заголовок контента страницы. Отсутствие H1 — сигнал для поисковика, что страница не структурирована. Несколько H1 размывают тематику. Совпадение H1 и title — упущенная возможность: в title лучше использовать ключевой запрос, а в H1 — более развёрнутую формулировку.

Как проверить вручную. Откройте код страницы и найдите все теги <h1>. Должен быть ровно один. Сравните его текст с содержимым <title>.

Как проверить в SEO Crawler. В отчёте указан H1 каждой страницы. Страницы без H1, с несколькими H1 или с совпадающими H1 и title помечаются отдельно.

Проверьте мета-теги автоматически
SEO Crawler найдёт пустые title, короткие description и дубли H1 за 30 секунд.
Проверить мета-теги

Ссылочная структура определяет, как поисковый робот обходит сайт и как распределяется «вес» между страницами. Битые ссылки и длинные цепочки редиректов тратят краулинговый бюджет впустую. Подробнее — в разделе SEO: ссылки.

5. Нет битых ссылок (404)

Что проверяем. Все внутренние ссылки ведут на существующие страницы, ни одна не возвращает ошибку 404.

Почему важно. Битые ссылки — прямой сигнал низкого качества для поисковика. Пользователь, попавший на 404, уходит с сайта. Поисковый робот тратит краулинговый бюджет на несуществующие страницы вместо полезных. Подробнее — в статье как найти битые ссылки на сайте.

Как проверить вручную. Пройдите по каждой ссылке на сайте и убедитесь, что страница открывается. Для сайта из 10 страниц это реально, для 50+ — уже нет.

Как проверить в SEO Crawler. Краулер автоматически проходит по всем внутренним ссылкам и отмечает страницы с кодом 404 как критические ошибки.

6. Нет цепочек редиректов (более одного перенаправления)

Что проверяем. Ссылки ведут на конечную страницу напрямую, без промежуточных редиректов (301 → 301 → 200).

Почему важно. Каждый редирект — это дополнительный HTTP-запрос и потеря времени. Цепочка из двух-трёх редиректов замедляет загрузку на 200–500 мс и снижает передаваемый «ссылочный вес». Поисковые роботы могут не пройти длинную цепочку до конца.

Как проверить вручную. Откройте DevTools (F12) → вкладка Network. Перейдите по ссылке и посмотрите, сколько запросов с кодом 301/302 предшествуют финальному 200.

Как проверить в SEO Crawler. В отчёте для каждой страницы указано количество редиректов. Страницы с двумя и более помечены предупреждением. Проверить отдельный URL — инструмент HTTP-статусов.

7. Все важные страницы доступны за 3 клика

Что проверяем. От главной страницы до любой важной (товар, услуга, статья) можно добраться максимум за три перехода по ссылкам.

Почему важно. Глубокие страницы получают меньше «ссылочного веса» и реже индексируются. Правило трёх кликов — ориентир: если страница глубже, поисковик может посчитать её менее важной, а пользователь — просто не найдёт.

Как проверить вручную. Начните с главной и попробуйте добраться до каждой важной страницы, считая переходы. Если нужно больше трёх — пересмотрите навигацию.

Как проверить в SEO Crawler. В отчёте для каждой страницы указана глубина — количество кликов от стартовой страницы. Отфильтруйте страницы с глубиной больше 3.

8. Есть XML-sitemap и она отправлена в Search Console

Что проверяем. На сайте существует файл sitemap.xml, он доступен по адресу /sitemap.xml и отправлен в Google Search Console и Яндекс Вебмастер.

Почему важно. Sitemap — карта сайта для поискового робота. Она ускоряет индексацию новых страниц и помогает поисковику обнаружить страницы, до которых сложно добраться по ссылкам. Без sitemap индексация может занять недели вместо дней.

Как проверить вручную. Введите в браузере ваш-сайт.ru/sitemap.xml. Если файл открывается и содержит список URL — он есть. Затем проверьте в Search Console, что sitemap отправлена и принята.

Как проверить в SEO Crawler. Краулер проверяет наличие sitemap.xml автоматически при обходе сайта и сообщает, если файл отсутствует или недоступен.

Контент (пункты 9–12)

Поисковые системы оценивают качество контента: его объём, уникальность и структуру. Тонкие страницы и дубли — частая причина потери позиций. Подробнее — в разделе SEO: контент.

9. Нет страниц с тонким контентом (менее 200 слов)

Что проверяем. Каждая индексируемая страница содержит не менее 200 слов основного текста.

Почему важно. Страницы с минимальным количеством текста поисковик может расценить как «тонкий контент» (thin content) — и понизить их в выдаче или вовсе исключить из индекса. 200 слов — нижний порог; для статей и товарных страниц желательно больше.

Как проверить вручную. Скопируйте текст страницы (без меню и футера) в текстовый редактор и посмотрите количество слов. В Google Docs это видно в нижней панели.

Как проверить в SEO Crawler. В отчёте для каждой страницы указано количество слов. Страницы с менее чем 200 словами помечаются как thin content.

10. Нет дублей title и description

Что проверяем. Значения title и meta description не повторяются на разных страницах сайта.

Почему важно. Дублирующиеся мета-теги — сигнал для поисковика, что страницы не различаются по содержанию. Это приводит к каннибализации: страницы конкурируют друг с другом за одни и те же запросы и обе теряют позиции.

Как проверить вручную. Выпишите title и description всех страниц в таблицу и проверьте на совпадения. Для сайта из 10 страниц — реально, для 50+ — нужен инструмент.

Как проверить в SEO Crawler. Аудит автоматически группирует дубли title и description. Во вкладке «Контент» все повторяющиеся значения выделены.

11. У всех картинок есть alt-текст

Что проверяем. Каждый тег <img> содержит атрибут alt с осмысленным описанием изображения.

Почему важно. Alt-текст помогает поисковику понять, что изображено на картинке, и показать её в поиске по картинкам. Без alt поисковик игнорирует изображение. Для пользователей со скринридером alt — единственный способ узнать содержимое картинки.

Как проверить вручную. Откройте код страницы (Ctrl+U), найдите теги <img> и проверьте наличие атрибута alt. Пустой alt="" — тоже проблема, если изображение не декоративное.

Как проверить в SEO Crawler. В отчёте указано количество изображений без alt на каждой странице. Страницы с пропущенными alt помечены предупреждением.

12. Контент уникален (не скопирован)

Что проверяем. Текст на страницах написан специально для сайта, а не скопирован с других ресурсов.

Почему важно. Дублированный контент — одна из самых серьёзных проблем для SEO. Поисковик определяет первоисточник и понижает копии. Если весь сайт состоит из скопированных текстов, он может потерять позиции полностью.

Как проверить вручную. Возьмите уникальный фрагмент текста (2–3 предложения) из каждой страницы и вставьте в кавычках в поисковик. Если находятся другие сайты с тем же текстом — контент не уникален.

Как проверить в SEO Crawler. Краулер анализирует количество слов и дубли мета-тегов, что помогает выявить шаблонный контент. Для глубокой проверки уникальности рекомендуем дополнительно использовать text.ru или Advego Plagiatus.

Техническое SEO (пункты 13–16)

Технические ошибки могут полностью заблокировать индексацию сайта — даже при отличном контенте и мета-тегах. Эти четыре пункта нужно проверять в первую очередь после запуска или миграции сайта.

13. Сайт доступен по HTTPS

Что проверяем. Сайт работает по протоколу HTTPS, SSL-сертификат валиден и не просрочен.

Почему важно. HTTPS — фактор ранжирования в Google с 2014 года и в Яндексе с 2019 года. Браузеры помечают HTTP-сайты как «Не защищено», что отпугивает пользователей. Без HTTPS невозможно использовать HTTP/2, сервис-воркеры и другие современные технологии.

Как проверить вручную. Посмотрите на адресную строку браузера. Если слева от URL значок замка — HTTPS работает. Кликните на замок, чтобы проверить срок действия сертификата.

Как проверить в SEO Crawler. Краулер определяет протокол каждой страницы. Страницы на HTTP при наличии HTTPS-версии помечаются как проблема.

14. Нет mixed content

Что проверяем. На HTTPS-страницах все ресурсы (картинки, скрипты, стили) загружаются тоже по HTTPS, без HTTP-вставок.

Почему важно. Mixed content — когда HTTPS-страница загружает ресурсы по HTTP — вызывает предупреждение браузера и может заблокировать загрузку скриптов. Это ухудшает пользовательский опыт и подрывает доверие к сайту.

Как проверить вручную. Откройте DevTools (F12) → вкладка Console. Если есть mixed content, браузер выведет предупреждение «Mixed Content: The page was loaded over HTTPS, but requested an insecure resource».

Как проверить в SEO Crawler. Аудит во вкладке «Безопасность» фиксирует проблемы с HTTPS и mixed content на проверенных страницах.

15. Есть canonical на каждой странице

Что проверяем. Каждая страница содержит тег <link rel="canonical" href="...">, указывающий на свой канонический URL.

Почему важно. Canonical сообщает поисковику, какой URL считать основным, если страница доступна по нескольким адресам (с www и без, с параметрами, с trailing slash). Без canonical поисковик может индексировать дубли и распылить ссылочный вес между ними.

Как проверить вручную. В коде страницы (Ctrl+U) найдите <link rel="canonical"> в <head>. Проверьте, что href совпадает с текущим URL страницы (или указывает на основную версию).

Как проверить в SEO Crawler. В отчёте для каждой страницы указан canonical URL. Страницы без canonical или с некорректным canonical помечены предупреждением.

16. robots.txt не блокирует важные страницы

Что проверяем. Файл robots.txt существует, доступен по адресу /robots.txt и не содержит правил, блокирующих важные разделы сайта.

Почему важно. Одна ошибка в robots.txt может закрыть от индексации весь сайт. Типичный пример: после миграции с тестового сервера осталось правило Disallow: /, которое блокирует всё. Поисковый робот подчиняется robots.txt — если страница заблокирована, она исчезнет из выдачи.

Как проверить вручную. Откройте ваш-сайт.ru/robots.txt в браузере. Убедитесь, что нет Disallow для важных разделов. Используйте инструмент проверки robots.txt в Google Search Console.

Как проверить в SEO Crawler. Краулер анализирует robots.txt при обходе и учитывает его правила. В отчёте видно, какие страницы заблокированы директивой noindex через meta robots.

Скорость и UX (пункты 17–20)

Скорость загрузки напрямую влияет на поведенческие факторы и ранжирование. Google использует Core Web Vitals как фактор ранжирования, а Яндекс учитывает скорость в формуле качества страницы.

17. Время ответа сервера менее 500 мс

Что проверяем. Сервер отвечает на запрос (Time to First Byte, TTFB) быстрее 500 миллисекунд.

Почему важно. TTFB — фундамент скорости загрузки. Если сервер отвечает за 2 секунды, страница не может загрузиться быстрее 2 секунд, какой бы лёгкой она ни была. Нормальный TTFB — до 200 мс, приемлемый — до 500 мс, критический — свыше 1 секунды.

Как проверить вручную. Откройте DevTools (F12) → Network. Перезагрузите страницу и посмотрите столбец Time для первого запроса (HTML-документ). Значение Waiting (TTFB) — это время ответа сервера.

Как проверить в SEO Crawler. В отчёте для каждой страницы указано время ответа сервера в миллисекундах. Страницы с TTFB свыше 500 мс выделены во вкладке «Скорость».

18. Страницы адаптированы под мобильные устройства

Что проверяем. Сайт корректно отображается на экранах шириной 320–480 пикселей: текст читается без увеличения, кнопки нажимаются, нет горизонтальной прокрутки.

Почему важно. Более 60% поискового трафика в Рунете — мобильный. Google использует mobile-first индексацию: для ранжирования анализируется мобильная версия сайта, а не десктопная. Неадаптивный сайт теряет и позиции, и пользователей.

Как проверить вручную. Откройте сайт на смартфоне или в DevTools (F12) → Toggle Device Toolbar (Ctrl+Shift+M). Проверьте основные страницы: текст, формы, навигацию.

Как проверить в SEO Crawler. Аудит проверяет наличие viewport meta-тега — базовое условие адаптивности. Для полной проверки мобильной версии используйте Google Mobile-Friendly Test.

19. Есть viewport meta-тег

Что проверяем. На каждой странице присутствует тег <meta name="viewport" content="width=device-width, initial-scale=1">.

Почему важно. Без viewport мобильный браузер отобразит страницу как уменьшенную копию десктопной версии — с мелким текстом и необходимостью увеличивать. Этот тег — минимальное условие для корректного отображения на мобильных. Его отсутствие — гарантированная потеря мобильного трафика.

Как проверить вручную. В коде страницы (Ctrl+U) найдите <meta name="viewport">. Он должен быть в <head>.

Как проверить в SEO Crawler. В отчёте каждая страница имеет отметку о наличии viewport. Страницы без viewport помечены как проблемные.

20. Нет страниц с временем загрузки более 3 секунд

Что проверяем. Ни одна страница сайта не загружается дольше 3 секунд.

Почему важно. По данным Google, 53% мобильных пользователей покидают страницу, если она загружается дольше 3 секунд. Медленные страницы получают меньше кликов из выдачи и хуже ранжируются. Каждая секунда задержки снижает конверсию на 7%.

Как проверить вручную. Используйте Google PageSpeed Insights: введите URL и посмотрите метрики Largest Contentful Paint (LCP) и Total Blocking Time (TBT). Или откройте DevTools → Network и посмотрите общее время загрузки.

Как проверить в SEO Crawler. Краулер измеряет время ответа сервера для каждой страницы. Страницы с аномально высоким временем отклика видны во вкладке «Скорость» — отсортируйте по убыванию.

Автоматизируйте аудит — SEO Crawler проверяет все 20 пунктов за минуту

Проходить 20 пунктов вручную на каждой странице — реально, но медленно. Для сайта из 30 страниц это займёт 2–3 часа. Для сайта из 100 страниц — целый рабочий день.

SEO Crawler автоматизирует весь процесс. Вот что он делает за один обход:

  • Мета-теги — проверяет title, description, H1: наличие, длину, уникальность, дубли
  • Ссылки — находит 404, цепочки редиректов, считает глубину каждой страницы
  • Контент — измеряет количество слов, находит thin content, проверяет alt-тексты
  • Техническое — canonical, meta robots, HTTPS, robots.txt, Open Graph, schema.org
  • Скорость — замеряет TTFB каждой страницы, viewport, количество редиректов

На бесплатном тарифе — до 50 страниц, 5 обходов в месяц. Для большинства малых сайтов этого достаточно. На Pro — до 500 страниц, автоматические расписания, экспорт в PDF и XLSX, сравнение обходов.

Подробнее о том, как работает аудит и что значат результаты, читайте в статье бесплатный SEO-аудит сайта онлайн. А если вы ищете замену десктопным инструментам — сравнение с популярным краулером в статье альтернатива Screaming Frog.

Запустите аудит — все 20 пунктов за 30 секунд
Введите адрес сайта, получите список проблем с приоритетами. Бесплатно, без установки.
Начать бесплатный аудит

Часто задаваемые вопросы

Сколько пунктов нужно для базового SEO-аудита?

Для базового аудита достаточно 20 пунктов по пяти областям: мета-теги, ссылки, контент, техническое SEO и скорость. Эти проверки выявляют 80–90% типичных проблем. Начните с критических: title, битые ссылки, HTTPS — и постепенно переходите к остальным.

Как часто нужно проводить SEO-аудит сайта?

Минимум раз в месяц для небольших сайтов, раз в неделю для активно обновляемых. После крупных изменений (редизайн, миграция, новый раздел) — сразу. Автоматические расписания позволяют проводить проверки без ручного запуска.

Можно ли автоматизировать проверку SEO чек-листа?

Да. SEO-краулеры проверяют большинство пунктов автоматически: мета-теги, битые ссылки, редиректы, скорость, alt-тексты, canonical, HTTPS. SEO Crawler проверяет все 20 пунктов за один обход — достаточно ввести адрес сайта.

С чего начать SEO-аудит новичку?

Начните с трёх вещей: 1) проверьте, что у каждой страницы есть уникальный title и description — инструмент проверки мета-тегов; 2) найдите битые ссылки (404); 3) убедитесь, что сайт работает по HTTPS — проверка редиректов. Эти три пункта дают максимальный эффект при минимальных усилиях.

Нужен ли чек-лист, если есть SEO-инструмент?

Чек-лист помогает понять, что вы проверяете и почему. Инструмент покажет ошибки, но без контекста легко пропустить важное. Используйте чек-лист как учебный план, а инструмент — для быстрого выполнения проверок.

Какие ошибки SEO самые критичные?

Отсутствие HTTPS, пустые или дублирующиеся title, массовые 404-ошибки, отсутствие viewport (мобильная адаптация), закрытие индексации через noindex или robots.txt по ошибке. Эти проблемы блокируют ранжирование и должны исправляться в первую очередь.

Чем SEO-аудит отличается от SEO-продвижения?

Аудит — диагностика: находит технические ошибки и проблемы на сайте. Продвижение — лечение и развитие: исправление ошибок, создание контента, наращивание ссылочной массы, работа с поведенческими факторами. Аудит — первый шаг, без которого продвижение неэффективно.

Бесплатный аудит покажет все проблемы?

Бесплатный аудит в SEO Crawler проверяет до 50 страниц — для небольших сайтов этого достаточно. Для крупных сайтов (500+ страниц) нужен Pro-тариф, чтобы охватить все страницы и не пропустить проблемы в глубине структуры. Подробнее о тарифах.

SC
Команда SEO Crawler
Пишем о техническом SEO, аудите и продвижении сайтов