Технический SEO-аудит сайта: чек-лист по комплексной проверке

Технический SEO-аудит сайта: чек-лист по комплексной проверке

 Захаренко ЕвгенийЗахаренко Евгений
4 марта 20231640

Данная инструкция имеет ряд практических особенностей, цель которых помочь SEO-специалисту, маркетологу и предпринимателю лучше понять смысл комплексного SEO-аудита и как извлечь из него максимальную выгоду в виде роста посещаемости и продаж сайта:

  1. Подробные пояснения о потенциальной прибыли / убытках от исправления / игнорирования выявленных ошибок.
  2. Готовые инструкции по исправлению ошибок.
  3. Система приоритетов - чем выше приоритет, тем больше профит от реализации проекта.
  4. Ответственные за правки - SEO-специалист / программист.

Частые проблемы, которые помогает решить аудит:

  • Позиции и посещаемость сайта давно не растут или падают
  • Платите за SEO-продвижение, но результата нет уже несколько месяцев
  • SEO-продвижение не окупается, хочется понять почему и как это исправить
  • Только сделали сайт и хотите быть уверены, что он пригоден к раскрутке в поисковых системах

Выгоды от проведения аудита:

  1. Понимание причин, мешающих сайту расти в поисковой выдаче, и решений по исправлению ситуации
  2. Определение точек роста и понимание возможностей, на чем лучше фокусироваться
  3. Повышение рентабельности инвестиций в SEO за счет приоритезации задач по степени критичности и важности


Экспресс переход к пунктам чек-листа:

Приоритет Что проверять
Высокий Доступность сайта с www и без www
Высокий Корректность редиректа с http на https
Высокий В robots.txt сайт разрешен к индексации поисковыми роботами
Высокий В robots.txt закрыты от индексации ненужные страницы
Низкий В robots.txt в качестве URL для Sitemap указан основной домен на протоколе https
Низкий В sitemap.xml все cсылки указаны с основным протоколом (https)
Средний Кол-во страниц в Sitemap примерно равно кол-ву страниц полученных краулером
Средний Атрибут rel="canonical" на страницах с параметрами указывает на страницы без параметров
Низкий Страницы с кодом ответа сервера 301 (редирект)
Низкий Бесконечные редиректы
Низкий Цепочки редиректов
Средний Страницы с кодом ответа сервера 404 (не существует)
Высокий Страницы с кодом ответа сервера 5XX (серверные ошибки)
Высокий Отсутствуют или пустые title
Высокий Отсутствуют или пустые description
Низкий Отсутствуют или пустые h1
Высокий Дубли title
Низкий Дубли description
Средний Дубли h1
Высокий Наличие названия города в title, description, h1
Высокий Наличие транзакционных слов в title и description у коммерческих страниц
Высокий Страницы с низкой уникальностью в рамках сайта
Низкий Мусорные внешние ссылки
Высокий Индексация страниц в Яндексе и Google
Высокий Наличие мусорных страниц в Яндексе
Высокий Наличие мусорных страниц в Google
Высокий Наличие информации о компании в Яндекс картах
Высокий Наличие информации о компании в Google картах
Средний Региональность в Яндекс.Вебмастере
Средний Наличие корректной ссылки на Sitemap.xml в Яндекс.Вебмастере
Средний Наличие корректной ссылки на Sitemap.xml в Google Search Console
Высокий Наличие ошибок в Яндекс.Вебмастере
Высокий Наличие ошибок в Google Search Console
Высокий Аффилированность сайта с другими сайтами компании
Высокий Идентичность контента на ПК и мобильном
Высокий Переспам текстовой релевантности в шаблоне сайта
Высокий Наличие ключевых элементов страниц в кэше Яндекса и Google
Средний Качество ссылочной массы
Средний Адаптивность мобильной версии
Низкий Микро-разметка
Низкий Скорость загрузки сайта

Доступность сайта с www и без www

Зачем проверять?
Каждая страница сайта может дублироваться. Наличие дубликатов страниц в поисковой выдаче автоматически понижает позиции целевых страниц, из-за того, что поисковая система не может достоверно определить какая из дублирующих является релевантной поисковому запросу. Понижение позиций ведет к снижению поискового трафика.

Как исправлять?
Настроить 301 редирект всех страниц сайта через файл .htaccess

Предпочтительный вариант - 301 редирект с домена с www на домен без www
Для этого добавьте в .htaccess:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.{domain}$ [NC]
RewriteRule ^(.*)$ https://{domain}/$1 [R=301,L]

где {domain} - имя домена.

Альтернативный вариант - 301 редирект с домена без www на домен с www
Для этого добавьте в .htaccess:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^{domain}
RewriteRule (.*) https://www.{domain}/$1 [R=301,L]

где {domain} - имя домена.

Кто вносит правки?
Программист.

Корректность редиректа с http на https

Зачем проверять?
Сайты на старом протоколе http современные браузеры помечают как небезопасные. Часть людей сразу уходит с сайта, увидев на экране сообщение с предупреждением, что автоматически приводит к потере трафика.

Если страницы доступны одновременно по двум протоколам - неэффективно расходуется краулинговый бюджет (лимит по кол-ву страниц, который выделят поисковая система персонально каждому сайту). Если сайт содержит много страниц - краулингового бюджета может не хватать на обход новых целевых страниц или переобход старых.

Из-за этого новые страницы будут попадать в поисковую выдачу гораздо дольше, как следствие - задержки в росте трафика.
Часть страниц может вообще не попадать в выдачу поиска - видимость будет равна нулю и сайт так и не начнет получать с них трафик.

Это может привести к тому, что контент на сайте и контент данного сайта в базе данных поисковой системы будут сильно отличаться. Например, сниппет или заголовок в поисковой выдаче указывает на то, что товар или услуга стоят 5000 руб, а они в действительности стоят уже 10000 руб. - ожидание пользователей будут обмануты ложной информацией, они быстро уйдут с сайта, оставив плохие поведенческие показатели. Ухудшение поведенческих показателей автоматически будет понижать страницы в поисковой выдаче, как следствие трафик с уже действующих страниц будет падать

Как исправлять?
Чтобы установить редирект для всех страниц с http:// на https://, в том числе и с http://www на https:// добавьте в .htaccess:

RewriteEngine On
RewriteCond %{SERVER_PORT} !^443$
RewriteRule .* https://%{SERVER_NAME}%{REQUEST_URI} [R=301,L]

Если первый вариант не поможет, воспользуйтесь вторым - добавьте в .htaccess:

RewriteEngine On
RewriteCond %{HTTPS} =off 
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [QSA,L]

Кто вносит правки?
Программист.

В robots.txt сайт разрешен к индексации поисковыми роботами

Зачем проверять?
Если поисковым машинам запрещено сканировать сайт в файле robots.txt - новые страницы не попадут в поисковую выдачу, а те, которые по каким-то причинам туда попали, со временем будут автоматически удалены. Проводить какие-либо работы по SEO бессмысленно, до тех пор пока поисковым системам не будет позволено заносить страницы сайта в свою базу данных и показывать в поисковой выдаче.

Как исправлять?
Нужно удалить из robots.txt строку (важно точное совпадение):

Disallow: /

Кто вносит правки?
Программист.

В robots.txt закрыты от индексации ненужные страницы

Зачем проверять?
Стремительный рост кол-ва информации в интернете заставляет поисковые системы: 

  1. ужесточать качество контента на страницах сайтов - чтобы в поисковой выдаче было как можно меньше бесполезной, малоценной информации
  2. урезать краулинговый бюджет, выделяемый каждому сайту на сканирование новых и текущих страниц сайта, из-за того что сканирование сайта требует серверных мощностей, которые оплачиваются поисковиками

В связи с этим в современных реалиях владельцы сайтов сталкиваются с проблемами:

  1. В поисковую выдачу попадают страницы, не содержащие уникальной информации - полные и частичные дубли страниц. Как правило это происходит из-за особенностей настройки движков сайтов или из-за технических ошибок. Например, страница каталога товаров/услуг, содержащая параметр сортировки дублирует базовую страницу без параметра и обе страницы при этом доступны для индексации сайта поисковыми системами - контент на них на 100% одинаковый (полный дубль) и поисковая система не может понять достоверно, какую из двух страниц лучше выводить пользователям по целевым запросам.

    Как следствие целевая страница понижается в поисковой выдаче. Неполные дубли также могут негативно сказываться на ранжировании - например, если листинг товаров/услуг содержит 20 элементов и изменение сортировки по цене меняет только порядок вывода элементов на сайте (в листинге не появляются новые элементы). Либо если раздел содержит 23 товара, 20 из которых выводятся в листинге - при изменении сортировки по стоимости больше 85% контента будет повторяться и в большинстве случаев для поисковых систем это будут близкие по смыслу страницы. Наличие неполных дублей также приводит к тому что целевая страница проседает по позициям в поисковой выдаче. Типовые страницы, генерирующие подобную ошибку - страницы поиска, сортировки, постраничной навигации, сравнения товаров.
  2. В поисковую систему попадают страницы, не содержащие поискового спроса - сравнения товаров, корзины, оформления заказа, авторизации, восстановления пароля, личного кабинета, панели управления сайтом. Это приводит к неэффективному расходованию краулингового бюджета, как новые целевые страницы могут индексироваться дольше обычного, либо вообще не попадать в поисковый индекс.

Как исправлять?
1) Закрыть в robots.txt ненужные страницы от индексации с помощью команды 

Disallow: {URL}

где {URL} это относительный путь типовой страницы от корня сайта с параметрами или без них

2) Указать на ненужных страницах мета-тег:

<meta name="robots" content="noindex, follow"/>

3) Указать на ненужных страницах тег:

<link rel="canonical" href="{URL}"/>

где {URL} - страница без параметров

Кто вносит правки?
Программист.

В robots.txt в качестве URL для Sitemap указан основной домен на протоколе https

Зачем проверять?

В ситуации когда сайт доступен одновременно по двум протоколам (http и https) поисковая система может просканировать дубли-страниц даже если на сайте все внутренние ссылки указывают на протокол https. Очень часто после переезда с http на https специалисты забывают поменять протокол в robots.txt, в правиле указывающем поисковому роботу на карту сайта. В случае если на сайте не настроен автоматический редирект с http на https в базу поисковых систем попадает большое кол-во дублей, что приводит к понижению страниц сайта по целевым запросам в поисковой выдаче.

Как исправлять?
Изменить протокол c http на https в robots.txt в правиле:

Sitemap: https://{domain}/sitemap.xml

где {domain} - домен продвигаемого сайта

Кто вносит правки?
Программист.

В sitemap.xml все ссылки указаны с основным протоколом (https)

Зачем проверять?
Из-за ошибок в настройке плагина, генерирующего карту сайта (Sitemap.xml) сайт работающий на протоколе https может указывать ссылки с протоколом http.
Поисковые роботы используют данный файл для обхода новых и переобхода существующих страниц сайта. В случае, если на сайте не настроен корректный редирект с http на https (даже при условии что все внутренние ссылки на страницах сайта указаны с протоколом https) - робот может просканировать и занести себе в базу дубли страниц, расположенные по протоколу http. Наличие дублей автоматически приведет к понижению страниц по целевым запросам в поисковой выдаче

Как исправлять?
Внести корректировки в код плагина/движка, отвечающего за генерацию Sitemap.xml, чтобы всем ссылкам проставлялся протокол https

Кто вносит правки?
Программист.

Кол-во страниц в Sitemap примерно равно кол-ву страниц полученных краулером

Зачем проверять?
Сверка данных по кол-ву страниц из Sitemap и результатов сканирование сайта любым краулером (программой, имитирующей поведение поискового робота при сканировании сайта) позволяет понять:

1) Все ли целевые страницы поисковый робот может самостоятельно обойти за счет внутренней перелинковки на сайте. Внутренняя перелинковка позволяет сообщать вес страницы (своего рода авторитетность страниц внутри сайта) поисковой системе. На основе этой информации поисковая система лучше понимает какую из очень похожих по смыслу страниц выводить пользователю на его запрос в поисковой выдаче. За счет более точного ответа целевая страница будет занимать выше позиции в топе по продвигаемым запросам и будет приносить больше трафика.

Если на целевую страницу внутри сайта не будет установлено ссылки, поисковая система сможет узнать о ее существовании с помощью файла Sitemap.xml или за счет внешних ссылок с других сайтов. Однако на индексацию страницы в таком случае будет уходить больше времени, как следствие получение трафика с нее будет отложено во времени. А отсутствие возможности сообщить поисковой системе о внутреннем весе страницы внутри сайта может привести к тому, что по целевому запросу поисковая система будет показывать другую, похожую страницу, поведенческие характеристики пользователи на ней будут оставлять хуже, чем на целевой, как следствие потенциально возможная позиция в рейтинге будет ниже, а трафика будет меньше.

2) Нет ли ненужных, мусорных страниц, которые по каким-то причинам доступны к сканированию поисковыми роботами. Большой объем подобных страниц будет неэффективно расходовать краулинговый бюджет - целевые страницы будут дольше индексироваться, часть может вообще никогда не проиндексироваться, как следствие это будет приводить к отсроченному получению трафика. Наличие мусорных страниц будет приводить к просадке сайта по целевым запросам в поисковой выдаче - это будет приводить к недополучению трафика.

Как исправлять?

  1. Просканировать сайт любым краулером, например SiteAnalyzer
  2. Сопоставить в таблице URL с кодом ответа 200 из выгрузки краулера со списком URL из Sitemap
  3. Проверить чтобы расхождение по кол-ву было не более 10%
  4. Если расхождение больше 10%:
    1. выделить повторяющиеся URL, удалить из таблицы.
    2. вручную проверить каждый URL - если мусорный, поставить задачу программисту задачу, чтобы данная ссылка не выводилась на сайте. Если URL целевой - поставить задачу программисту, чтобы на сайте была ссылка на текущую страницу

Кто вносит правки?
Программист.

Атрибут rel="canonical" на страницах с параметрами указывает на страницы без параметров

Зачем проверять?
Поисковая система старается подобрать на сайте под один кластер запросов одну наиболее релевантную страницу, которая лучше отвечает интенту пользователя. Если на сайте список похожих страниц широк - поисковая система не может корректно определить лучшую из них и как следствие понижает все в поисковой выдаче. Например, по запросу "купить мужскую зимнюю куртку" в категории магазина 240 товаров. 30 товаров выводятся по умолчанию на первой странице (например, по адресу /category/mzk/), товары с 31 по 60 показываются на второй странице (например /category/mzk/?page=2) и т.д.

Закрывать в robots.txt подобные страницы нельзя - поисковый робот не сможет их сканировать и самое главное, не сможет перейти по ссылкам на товары, которые на них содержатся. Как следствие, будет нарушаться внутренняя перелинковка, передача внутреннего веса. Индексация страниц будет дольше обычного. Все это в совокупности будет приводить к просадке товарных страниц.

Для того чтобы робот мог посещает подобные страницы и по ссылкам внутри них, при этом сами страницы не заносил в свою базу данных существует рекомендация для поискового робота, позволяющая указать, какую из похожих страниц считать целевой, при этом остальные не индексировать.

Как исправлять?
Для всех страниц у которых есть параметры указать тег:

<link rel="canonical" href="{URL}"/>

где {URL} - абсолютный путь к основной странице без get-параметров

Кто вносит правки?
Программист.

Страницы с кодом ответа сервера 301 (редирект)

Зачем проверять?
Большое кол-во 301-редиректов на уровне сервера (постоянных перенаправлений) неэффективно расходует краулинговый бюджет. Как следствие целевые страницы дольше попадают в поиск, или вообще могут не попадать. Из-за чего сайт получает трафик с отсрочкой или вообще недополучает трафик.

Как исправлять?

  1. Выявить страницы источники 301-редиректов через краулер, например, через SiteAnalyzer
  2. Исправить ссылки на конечные без редиректов

Кто вносит правки?
Программист.

Бесконечные редиректы

Зачем проверять?
Бесконечные редиректы также неэффективно расходует краулинговый бюджет, нагружают сервер. Помимо классических проблем с отсрочкой и недополучением трафика добавляется проблема потери конверсий. В случае если реальные пользователи попадают на бесконечные редиректы - браузер выдает ошибку и люди в большинстве случаев уходят с сайта, не совершив целевого действия.

Как исправлять?
1) Выявить страницы-источники бесконечных редиректов через краулер, например через Siteanalyzer
2) Исправить ссылки на корректные

Кто вносит правки?
Программист.

Цепочки редиректов

Зачем проверять?
Цепочки редиректов приводят к неэффективному расходу краулингового бюджета. Это приводит к отсрочке и недополучению трафика по целевым страницам, из-за того что на их обход у поисковой системы не остается ресурсов

Как исправлять?

  1. Выявить страницы-источники бесконечных редиректов через краулер, например через Siteanalyzer
  2. Исправить ссылки на корректные

Кто вносит правки?
Программист.

Страницы с кодом ответа сервера 404 (не существует)

Зачем проверять?
Бывают случаи когда продаваемые товары больше не завозятся в магазин или оказываемые услуги больше не предоставляются, иногда данные ошибки могут появляться в ходе технического сбоя в настройках движка, синхронизации с системой товарного учета. Если страницы неактуальных товаров/услуг удалить с сайта - то при переходе по ссылкам, где они располагались будет показываться ошибка с кодом 404 (не существует).

Проблема заключается в том, что удаление страниц с сайта не гарантирует удаление информации о них из базы поисковой системы. Люди могут по прежнему переходить из поиска на эти страницы, но вместо нужной им информации будут видеть сообщение об ошибке. В большинстве случаев пользователи просто закроют сайт и уйдут к конкурентам. Такое поведение расценивается поисковыми системами как негативный поведенческий фактор. Чем больше объем негативных поведенческих факторов сайт накапливает - тем сильнее это влияет на позиции всего сайта в целом. Т.е. страдают все страницы сайта. Это приводит к просадке позиций хороших и популярных страниц сайта в поисковой выдаче и недополучении трафика и продаж.

Как исправлять?

  1. Выявить страницы с ошибкой 404 через краулер
  2. Проверить наличие каждого URL c кодом ошибки 404 в индексе Яндекса и Google. Если URL присутствует в поиске - отправить запрос на удаление вручную через Яндекс.Вебмастер / Google Search Console

Кто вносит правки?
SEO-специалист.

Страницы с кодом ответа сервера 5XX (серверные ошибки)

Зачем проверять?
Технические ошибки в коде сайта или на стороне хостинга могут приводить к недоступности страниц сайта, вместо нужного содержимого на экране пользователь будет видеть предупреждение об ошибке 5xx.

Недоступность целевых страниц автоматически приводит к потерям продаж с того трафика, который идет на сайт (со всех источников, включая SEO). Пользователи пришедшие на сайт из поисковой системы, увидевшую ошибку вместо желаемой информации и вернувшиеся обратно сообщают поисковой системе негативный сигнал относящийся к поведенческим факторам. Чем больше страница накапливает таких сигналов - тем сильнее она проседает по позициям.

Более того если сайт в целом накапливает большой объем негативных поведенческих факторов по большому кол-ву страниц - в поисковой выдаче начинают понижаться все страницы сайта. Как следствие это приводит к падению трафика и продаж из поисковых систем.

Как исправлять?
1) Выявить страницы с ошибками 5хх через краулер
2) Передать программисту список URL для исправления

Кто вносит правки?
SEO-специалист + программист.

Отсутствуют или пустые title

Зачем проверять?
Мета-тег title сообщает поисковой системе о содержимом страницы. Наличие ключевых фраз в данном теге улучшает ранжирование страницы по этим ключевым фразам. Если данный тег не заполнен - данная возможность теряется и позиции страницы по целевым запросам ранжируются ниже потенциально возможного уровня (т.к. поисковая система сам формирует title из текстового контента страницы и в большинстве случаев он получается хуже чем составленный вручную). Как следствие - неполучение трафика и продаж.

Как исправлять?
Заполнить на основе инструкции

Кто вносит правки?
SEO-специалист.

Отсутствуют или пустые description

Зачем проверять?
Мета-тег напрямую не влияет на ранжирование в поисковой системе. Текст, указанный в данном теге поисковая система может использовать в качестве сниппета (описания страницы сайта в поисковой выдаче). Наличие ключевых фраз в данном теге не является обязательным, самое главное - указание выгод для клиента, отличия от конкурентов. Благодаря данному тегу появляется возможность повлиять на CTR (кликабельность) сниппета. Как следствие - повлиять на объем трафика и продаж.

Если данный тег отсутствует на странице - поисковая система сама формирует его из текстового контента страницы. В большинстве случаев на выходе получается менее качественный сниппет, а кликабельность ниже. Это приводит к потерям трафика и продаж.

Как исправлять?
Заполнить на основе инструкции

Кто вносит правки?
SEO-специалист.

Отсутствуют или пустые h1

Зачем проверять?
Наличие тега h1 на странице не является обязательным. Однако вхождение ключевых фраз в данный тег повышает позиции страницы по продвигаемым запросам. Не использование данной возможности приводит к недополучению трафика и продаж из поиска.

Как исправлять?
Заполнить на основе инструкции

Кто вносит правки?
SEO-специалист.

Дубли title, description, h1

Зачем проверять?
Дублирование информации в тегах title, description, h1 возможно в двух вариантах:
1) Полные дубли - когда вместе с информацией в тегах дублируется контент страниц
2) Неполные дубли - когда дублируется только информация в тегах, а контент на страницах отличается

В обоих случаях дублирование информации приводит к понижению страниц в поисковой выдаче по целевым запросам (у полных дублей просадка существенно сильнее). Это происходит из-за того, что поисковая система не может достоверно определить, какая из страниц с дублирующей информацией лучше соответствует запросу пользователя. Поэтому в большинстве случаев все страницы-дубли проседают в поисковой выдаче, что приводит к потере трафика и продаж.

Как исправлять?
1) Проверить краулером на наличие ошибки
2) Каждому URL сформировать уникальный title, description, h1
3) Если на сайте присутствуют полные дубли (контент полностью совпадает) - одну из страниц-дублей нужно скрыть с сайта, добавить мета-тег:

<meta name="robots" content="noindex, follow"/>

4) Если на сайте присутствуют неявные дубли (параметры сортировки, постраничная навигация в листингах) - нужно указать мета-теги:

<meta name="robots" content="noindex, follow"/>
<link rel="canonical" href="{URL}"/>

где {URL} - страница без параметров

Кто вносит правки?
SEO-специалист + программист.

Наличие названия города в title, description, h1

Зачем проверять?
Если сайт продвигается по конкретному региону, а не по всей России важно указать название региона в title, description, h1. Вхождение названия города в эти теги улучшает ранжирование по всему кластеру запросов продвигаемой страницы в указанном регионе. Если название города не указывать в данных тегах - позиции продвигаемых страниц будут ниже, посещаемость также будет ниже потенциально возможной.

Как исправлять?
Если title, description, h1 формируются на сайте автоматически на основе шаблона - нужно внести правки в шаблон, указав название города

Если title, description, h1 заполняются страницам вручную:
1) Получить краулером список всех страниц сайта с кодом ответа 200, выгрузить в csv или xlsx 
2) Отфильтровать URL - оставить те, которые не содержат название города в title, description или h1
3) Добавить название города в теги тем URL, которые их не содержат

Кто вносит правки?
SEO-специалист.

Наличие транзакционных слов в title и description у коммерческих страниц

Зачем проверять?
Наличие транзакционных слов (купить, заказать, цена, стоимость, доставка, магазин, интернет-магазин и др.) улучшает ранжирование продвигаемых страниц по коммерческим запросам. Важно, чтобы эти фразы были указаны только для коммерческих страниц (категории, бренды, подброки и фильтры, карточки товаров / услуг). Если транзакционные фразы не указать в мета-тегах - позиции, трафик и продажи будут ниже потенциально возможных.

Как исправлять?
Если title и description формируются на сайте автоматически на основе шаблона - внести правки в шаблон, добавив релевантные коммерческие фразы (можно посмотреть какие указаны у конкурентов из ТОП-10)

Если title, description заполняются страницам вручную:
1) Получить краулером список всех страниц сайта с кодом ответа 200, выгрузить в csv или xlsx
2) Отфильтровать URL - оставить те, которые не содержат релевантных коммерческих фраз
3) Добавить релевантные коммерческие фразы в теги тем URL, которые их не содержат

Кто вносит правки?
SEO-специалист.

Страницы с низкой уникальностью в рамках сайта

Зачем проверять?
Быстрый рост кол-ва страниц в интернете, вместе с ограниченными ресурсами поисковых систем на их сканирование привели к тому, что поисковые системы с каждым годом ужесточают требования к качеству содержимого страниц для того, чтобы у них появился шанс на попадание в поисковую выдачу.

Если страница содержит мало уникального контента (в рамках сайта), например в категории товаров всего 1-2 товара или на странице услуги всего 2 абзаца с описанием - поисковая система посчитает такие страницы недостаточно качественными.

По "мнению" поисковой системы, такие страницы не смогут дать полного и емкого ответа на запрос пользователя, закрыть его потребность в товарах/услуге/информации. Как следствие поисковый робот будет игнорировать подобные страницы, в поисковую выдачу они не будут попадать.

Даже если они попадут по каким-то причинам в поисковую выдачу - с большой долей вероятности поисковая система через какое-то время исключит их из своей базы данных, как только получит обратную связь от пользователей (почти всегда на таких страницах будут негативные поведенческие факторы). Получать трафик и продажи с таких страниц в современных условиях невозможно.

Нередко бывает такое, что большое многоуровневое меню или другие сквозные блоки, присутствующие на всех страницах сайта сильно снижают уникальность всех страниц в рамках сайта. К примеру, в основном многоуровневом меню выведен каталог товаров, насчитывающий 200 ссылок на категории. При этом на страницах категорий выводится всего 10 товаров. Объем уникального контента (10 ссылок на товары) к неуникальному (200 ссылок), который выводится на всех страницах сайта слишком низкий.

Поисковая система не может точно определить, чему конкретно соответствует та или иная страница сайта. Как следствие все страницы сайта в массовом порядке понижаются в поисковой выдаче и бизнес не дополучает трафик и продажи, попросту даря их конкурентам.

Как исправлять?
1) Проверить через SiteAnalyzer (вкладка "Дубликаты"). Если страницы найдены:
а) Сократить сквозные блоки меню (убрать 3 и 4 уровни вложенности, убрать непопулярные бренды без поискового спроса)
б) Скрыть сквозное меню в ajax
в) Добавить "похожие товары" в листинги
г) Добавить товары/услуги из списков кроссела и апсела в карточки
д) Добавить текст в категории, автоматически генерируемый на основе шаблона с простой заменой подставляемых переменных


2) Для категорий товаров:
а) Наполнить категории товарами. Если такой возможности нет - закрыть от индексации страницы, где кол-во товаров меньше 3, указав на таких страницах мета-тег

<meta name="robots" content="noindex, follow"/>

б) Если в категориях есть постраничная навигация - нужно увеличить количество товаров выводимых по умолчанию на странице листинга (например если выводилось 10 товаров на страницу, сделать вывод 20 товаров)

3) Для страниц услуг, информационных страниц и статей:
а) Провести анализ страниц конкурентов и на его основе увеличить качественное описание, доработав объем и содержание актуальной информации

Кто вносит правки?
SEO-специалист + программист.

Мусорные внешние ссылки

Зачем проверять?
На сайте могут присутствовать ссылки, ведущие на внешние сайты. Ссылки могут быть ценными (например соц.сети бизнеса, youtube-канал, онлайн сервисы партнеров по оказанию услуг и т.п.), а могут быть мусорными (например, ссылки на сайты конкурентов, если контент-менеджер при наполнении сайта скопировал текст со страницы конкурента вместе со ссылкой на его сайт). Мусорные ссылки нужно обязательно удалять с сайта. Открытие полезных ссылок делать обязательно в новой вкладке - чтобы пользователи не уходили с сайта и не забывали совершать на нем целевые действия. Это позволит минимизировать утечки трафика.

Как исправлять?
1) Удалить мусорные, бесполезные внешние ссылки
2) Добавить всем полезным ссылкам атрибут target="_blank" для открытия в новых вкладках

Кто вносит правки?
SEO-специалист.

Индексация страниц в Яндексе и Google

Зачем проверять?
Из-за плохой индексации (страницы существуют на сайте, но в поисковой выдаче их нет) сайт может недополучать примерно до 20-30% трафика от потенциально возможного. Как правило, эта проблема касается больших сайтов (содержащих от нескольких тысяч страниц). Причиной может служить плохая внутренняя перелинковка, отсутствие ссылок в Sitemap, некорректно настроенный файл robots.txt, низкий объем краулингового бюджета и пр.

Выявление причин низкой индексации и последующее исправление позволяют за короткий промежуток времени увеличить посещаемость сайта.

Как исправлять?

  1. Проверить файл robots.txt, чтобы не были закрыты от индексации полезные страницы сайта
  2. Спарсить все страницы с кодом ответа 200, доступные к индексации через краулер, например через SiteAnalyzer
  3. Спарсить все страницы Sitemap, например через SiteAnalyzer
  4. Совместить данные из предыдущих выгрузок, удалить дубли URL
  5. Проверить индексацию в Яндекс и Google через сервис Арсенкин Тулс
  6. Для страниц которых нет в индексе любой поисковой системы:
    1. проверить наличие внутренних ссылок на сайте, если нет - проставить
    2. проверить наличие URL в Sitemap, если нет - добавить
    3. проверить, если на странице указан мета-тег robots, чтобы было указано значение атрибута content="index, follow"
  7. Страницы которых нет в Яндексе - отправить вручную на индексацию через Яндекс.Вебмастер (раздел "Индексирование" -> "Переобход страниц")
  8. Страницы которых нет в Google - отправить вручную на индексацию через Google Search Console

Кто вносит правки?
SEO-специалист.

Наличие мусорных страниц в Яндексе и Гугле

Зачем проверять?
В поисковую выдачу могут попасть мусорные, некачественные страницы сайта, из-за которых будут понижаться основные продвигаемые страницы. К мусорным страницам относятся полные и неполные дубли, страницы без контента, страницы которых больше не существует, страницы с которых установлены редиректы.

Поисковые системы осуществляют регулярный переобход всех страниц сайта, хранящийся в их базе данных. Переобход мусорных страниц уменьшает краулинговый бюджет. Это приводит к дополнительной проблеме - чтобы анализировать качественные страницы сайта у поисковой системы остается меньше ресурсов - качественные страницы будут гораздо дольше попадать в поисковую выдачу, а при большом объеме некачественных страниц - могут вообще не попасть туда. Как следствие - сайт недополучает трафик и продажи, которые уходят конкурентам.

Как исправлять?

  1. Скачать из Яндекс.Вебмастера список всех страниц в индексе - отправить на проверку в SiteAnalyzer. Те которые не отдают код 200 или запрещены к индексации (через robots.txt, мета-тег robots) - нужно отправить вручную на удаление из индекса Яндекса (раздел "Инструменты" -> "Удаление страниц из поиска")
  2. Скачать из Google Search Console список всех страниц в индексе - отправить на проверку в SiteAnalyzer. Те которые не отдают код 200 или запрещены к индексации (через robots.txt, мета-тег robots) - отправить вручную на удаление из индекса Google

Кто вносит правки?
SEO-специалист.

Наличие информации о компании в Яндекс картах и Google картах

Зачем проверять?
Наличие карточки организации в сервисе карт поисковых систем улучшает ранжирование страниц сайта в целевом регионе. Обязательное условие - указание ссылки на продвигаемый сайт. Чем полнее и точнее будет заполнена карточка - тем больше трафика сайт получит из поиска по картам, а также из классического поиска.

Как исправлять?

  1. Добавить недостающую информацию об организации через Яндекс.Бизнес
  2. Добавить недостающую информацию об организации через Google Мой Бизнес

Кто вносит правки?
SEO-специалист.

Региональность в Яндекс.Вебмастере

Зачем проверять?
Для того чтобы сайт хорошо ранжировался в целевом регионе поисковая система должна иметь привязку к конкретной гео-локации. Если у бизнеса нет возможности разместить информацию о компании в картах Яндекса (например, если нет физического офиса/магазина), то сообщить о гео-привязке поисковику можно через Яндекс.Вебмастер. Если у сайта не будет гео-привязки, он будет проседать по коммерческим запросам в целевом регионе, терять трафик и продажи.

Как исправлять?
Введите в Яндекс.Вебмастере целевой регион в разделе "Представление в поиске" -> "Региональность"

Кто вносит правки?
SEO-специалист.

Наличие корректной ссылки на Sitemap.xml в Яндекс.Вебмастере, Google Search Console

Зачем проверять?
Чем больше страниц сайта будет находиться в поисковой выдаче - тем больше трафика и продаж бизнес будет получать из поиска. Для того чтобы поисковая система быстрее находила новые страницы и переобходила существующие, необходимо указать файл Sitemap.xml (карту сайта для поисковых систем, содержащую ссылки на все страницы сайта, доступные к индексации).

Если на сайте есть проблемы с внутренней перелинковкой, краулинговым бюджетом, некорректно настроены правила сканирования и индексирования страниц сайта поисковыми системами, при этом поисковой системе не сообщен адрес Sitemap.xml - сайт будет терять трафик и продажи.

Как исправлять?

  1. Указать корректную ссылку на Sitemap.xml в Яндекс.Вебмастере
  2. Указать корректную ссылку на Sitemap.xml в Google Search Console

Кто вносит правки?
SEO-специалист.

Наличие ошибок в Яндекс.Вебмастере

Зачем проверять?
Яндекс.Вебмастер может показать ошибки, которые невозможно или затруднительно со 100% достоверностью определить с помощью сторонних программ. Помимо ошибок и предупреждений, сервис выдает рекомендации, помогающие улучшить качество поисковой оптимизации (как внутренней, так и внешней).

Игнорирование ошибок в панели Вебмастера будет приводить к потерям трафика и продаж. По всем типовым ошибкам в справке Яндекса есть подробные рекомендации по исправлению.

Как исправлять?
1) Проверить сайт на наличие ошибок в разделе "Диагностика" -> "Диагностика сайта", исправить с помощью справки Яндекса 
2) Проверить сайт на наличие ошибок в разделе "Диагностика" -> "Безопасность и нарушение", исправить с помощью справки Яндекса 
3) Если в панели Яндекс.Вебмастера указаны прочие нарушения - проверить и исправить с помощью раздела справки Яндекса 

Кто вносит правки?
SEO-специалист + программист.

Наличие ошибок в Google Search Console

Зачем проверять?
Google Search Console может показать ошибки, которые невозможно или затруднительно со 100% достоверностью определить с помощью сторонних программ. Помимо ошибок и предупреждений, сервис выдает рекомендации, помогающие улучшить качество поисковой оптимизации.

Игнорирование ошибок в панели Search Console будет приводить к потерям трафика и продаж. По всем типовым ошибкам в справке Google есть подробные рекомендации по исправлению.

Как исправлять?
1) Проверить сайт на наличие ошибок в разделе "Меры принятые вручную", исправить с помощью справки Google 
2) Проверить сайт на наличие ошибок в разделе "Проблемы безопасности", исправить с помощью справки Google 

Кто вносит правки?
SEO-специалист + программист.

Аффилированность сайта с другими сайтами компании

Зачем проверять?
Если у компании есть несколько похожих сайтов, предоставляющих одни и те же товары или услуги - один из них поисковая система может полностью исключить из поиска или сильно понизить позиции всех страниц.

Нередко случается так, что после разработки нового сайта разработчики забывают закрыть от индексации тестовый домен - в итоге в поиске отображаются почти идентичные сайты.

Проблема заключается в том, что поисковая система не знает какой из сайтов нужно исключать из поиска и под раздачу может попасть боевой домен компании. Любые последующие работы по SEO-оптимизации данного домена будут бесполезными, как следствие это приведет к потере денег, времени, отсутствию трафика и продаж с целевого домена.

Как исправлять?
1) Нужно уточнить у руководителя бизнеса наличие других сайтов по текущей деятельности
2) Проверить все сайты компании на аффилированность через сервис 
3) Если выявлены сайты-аффилиаты:
а) Если контент совпадает на 90% и более - закрыть дублирующие сайты от индексации через файл robots.txt, указав директиву:

User-agent: *
Disallow: /

б) Если контент отличается - достаточно уникализировать на дублирующих сайтах сквозные блоки (шапка, футер, меню), указать разные контакты и юр.данные (при возможности), удалить ссылки на сайты-дубли в картах Яндекса и Гугла

Кто вносит правки?
SEO-специалист.

Идентичность контента на ПК и мобильном

Зачем проверять?
Нередко разработчики шаблонов тем дизайна скрывают на мобильной версии часть контента, которая отображается на ПК. Из-за этого поисковый робот получает искаженную картину по текстовой релевантности (полноте и точности ответа на запрос пользователя) - позиции сайта в мобильной выдаче могут быть существенно ниже по сравнению с десктопной версией. Как следствие бизнес недополучает трафик и продажи из мобильной версии поисковой выдачи.

Как исправлять?
Проверить чтобы на мобильной версии выводились те же элементы что и на ПК, в случае расхождения - сформировать ТЗ на исправление программисту:

  1. Сквозные блоки - шапка и подвал сайта, все ссылки сквозного меню (присутствующего на всех страницах сайта)
  2. Текстовый и графический контент на типовых страницах:
    • Главная
    • Категория товаров / услуг
    • Страница фильтрации товаров / услуг
    • Карточка товара / услуги
    • Раздел статей
    • Статья
    • Инфо-страница

Кто вносит правки?
SEO-специалист + программист.

Переспам текстовой релевантности в шаблоне сайта

Зачем проверять?
Переспам ключевой фразой в сквозных блоках сайта грозит тем, что у многих страниц сайта будет искажена текстовая релевантность - все эти страницы будут соответствовать переспамленной фразе, как следствие будут идентифицироваться поисковыми роботами как неявные дубли и понижаться в поисковой выдаче по целевым фразам. Из-за этого сайт будет недополучать много трафика и продаж.

Как исправлять?
Проверить каждую типовую страницу сайта (главная, категория, карточка, статья, инфо-страница): 
1) Открыть исходный код страницы в браузере в режиме разработчика, удалить уникальный контент страницы, оставив сквозные блоки, скопировать оставшийся код
2) Проверить через ГАР (или через Миратекст) на текстовую релевантность. Если есть ключевая фраза в разы превышающая по частоте употребления на странице все остальные - лучше удалить или заменить на синонимы в сквозных блоках данную фразу или ее часть

Кто вносит правки?
SEO-специалист.

Наличие ключевых элементов страниц в кэше Яндекса и Google

Зачем проверять?
Часть современных сайтов использует динамическую подгрузку контента при помощи ajax-технологии. Эта технология позволяет сократить время загрузки и отрисовки контента. Однако при этом она обладает существенным недостатком - поисковым роботам отдается только контент сквозных блоков. Уникальный контент, подгружаемый динамически с помощью javascript'ов, на текущий момент очень часто не сканируется поисковыми роботами.

Поисковые системы улучшают свои алгоритмы и постепенно динамический контент начинает сканироваться Яндексом и Гуглом. Однако на данный момент данная технология работает плохо. Как следствие контент не попадает в поисковую выдачу и сайт не ранжируется по целевым запросам - бизнес теряет посетителей сайта и потенциальную прибыль.

Как исправлять?
Вбить поочередно в Яндекс и Google ключевую фразу, описывающую целевую страницу, рядом с запросом указать site:{URL}, где {URL} - домен продвигаемого сайта, проверить сохраненную копию целевой страницы, чтобы в ней присутствовал контент (сквозные блоки + уникальный контент), также как и на оригинальной странице сайта:
а) Главная
б) Категория товаров / услуг
г) Страница фильтрации товаров / услуг д) Карточка товара / услуги
г) Раздел статей
д) Статья
е) Инфо-страница

Кто вносит правки?
SEO-специалист.

Качество ссылочной массы

Зачем проверять?
Недобросовестные подрядчики по SEO могут закупать дешевые ссылки на плохих площадках. Если объем плохой ссылочной массы будет большой (больше 1000 входящих некачественных ссылок) - весь сайт или отдельный его страницы (на которые больше всего стоит некачественных внешних ссылок) могут быть понижены в поисковой выдаче. В результате бизнес будет постоянно недополучать трафик и выручку, которые уйдут конкурентам.

Как исправлять?
1) Выгрузить внешние ссылки из Яндекс.Вебмастера и Google Search Console
2) Совместить списки, удалить дубли
3) Проверить внешние ссылки из полученного списка в СheckTrust'e (пункт 2 инструкции по линкбилдингу)
4) Удалить некачественные ссылки с мусорных площадок (там где есть возможность связаться с владельцами)
5) Нарастить качественную ссылочную массу, чтобы процент хороших внешних ссылок был не ниже 80%

Кто вносит правки?
SEO-специалист.

Адаптивность мобильной версии

Зачем проверять?
Если сайт криво отображается на мобильном телефоне или планшете, им неудобно пользоваться - посетители сайта будут оставлять негативные поведенческие характеристики. Чем ближе позиции сайта будут находиться к результатам ТОП-10, тем больше будет влияние поведенческих факторов в формуле ранжирование. При большой объеме негативных ПФ поисковые системы будут понижать сайт в мобильной выдаче.

Как исправлять?
Проверить визуально типовые страницы сайта на удобство использования, чтобы не было явных багов - блоки текста или фото уезжают за края экрана, невозможно нажать по ссылке или кнопке, элементы налезают друг на друга, очень мелкий шрифт или интерактивные элементы и пр. В случае обнаружения - сделать скрины, сформировать ТЗ для программиста на исправление:
а) Главная
б) Категория товаров / услуг
в) Страница фильтрации товаров / услуг
г) Карточка товара / услуги
д) Раздел статей
е) Статья
ж) Инфо-страница

Кто вносит правки?
SEO-специалист + программист.

Микро-разметка

Зачем проверять?
Использование специальной разметки позволяет дополнительно выделить сайт на фоне конкурентов в поисковой выдаче. Это повышает кликабельность сниппетов и позволяет получать больше целевых посетителей на сайт.

Как исправлять?
1) Проверить через сервис Google по типу сайта (если нет - поставить задачу программисту реализовать с помощью готового плагина из маркет-плейса движка или сделать кастомную доработку нужного типа страницы)
а) Для интернет-магазинов: главная, категория, бренд, товар, инфо-страница
б) Для сайтов услуг: главная, страница услуги, инфо-страница
в) Для блога: главная, категория, статья

Кто вносит правки?
SEO-специалист + программист.

Скорость загрузки сайта

Зачем проверять?
Напрямую скорость загрузки сайта не влияет на SEO. Однако данный показатель оказывает сильное влияние на поведенческие факторы, которые имеют наибольшую значимость в рамках ТОП-10. В большинстве случаев важна именно отрисовка контента, общая скорость загрузки страницы имеет гораздо меньше влияния на ПФ.

Т.е. важно именно то, как быстро начнет отображаться контент в первом экране, чтобы при этом он не "скакал" по экрану и с контентом можно было максимально быстро взаимодействовать. Оптимизация скорости отрисовки страниц сайта положительно скажется на поведенческих характеристиках, что в свою очередь позволит улучшить позиции в поиске относительно конкурентов и получать больше трафика и прибыли.

Как исправлять?
1) Проверить через инструменты разработчика в браузере, чтобы типовые страницы отрисовывали первый экран не дольше 3 секунд, с отключенным кэшем браузера. Если на каких-то страницах есть проблемы с отрисовкой:
а) Проверить чтобы коды внешних систем грузились в конце страницы перед </body> (системы аналитики, пиксели соц.сетей, виджеты чатов и пр.)
б) Проверить lazy-loading изображений
г) Отключить неиспользуемые модули и плагины

2) Проверить через инструменты разработчика в браузере чтобы типовые страницы полностью загружались не дольше 10 секунд, с отключенным кэшем браузера. Если общая скорость загрузки больше:
а) Включить оптимизацию и сжатие картинок через плагин, предварительно установив необходимые модули на сервере. После установки - сжать все текущие изображения на сайте
б) Проверить ip сервера, чтобы был из России, ближе к целевому региону
в) Проверить версию php, чтобы была не ниже 7 версии
г) Проверить поддержку протокола HTTP/2 через онлайн-сервис (для подключения требуется связка nginx + apache, если ее нет - после внедрения тех.поддержкой обязательно протестировать работоспособность сайта)
через Google Pagespeed Insights, сформировать рекомендации программисту на внедрение
д) Проанализировать через панель разработчика файлы, которые долго грузятся - сжать, уменьшить, переместить вниз страницы исходя из типа и цели файла
е) Настроить серверное сжатие (коэффициент = 5) и кэширование (период = 30 дней)

Кто вносит правки?
SEO-специалист + программист.

Резюме

Используя данный чеклист, можно провести оценку состояния домена вашего сайта, выявить “узкие места”, составить список ошибок, провести анализ внешних и внутренних ссылок, собрать необходимую статистику. Полученная информация даст возможность оптимизировать сайт и сделать его лучше, чем у конкурентов , независимо от его возраста и текущего ИКС.

SEO Audit можно осуществить собственными силами, фактически бесплатно, но это потребует времени, в том числе на изучение технической информации. Сколько? Вопрос открытый. Лучше, если есть возможность, доверить дело надежному агентству и получить полный отчет удобной формы и структуры. Исходя из полученного от аудитора списка необходимых доработок, владея информацией о состоянии домена сайта, вы сможете принять решение о следующем шаге в сторону улучшения своего ресурса.

Больше полезной информации в
 Телеграм-канале
 Захаренко ЕвгенийЗахаренко Евгений

Вас может заинтересовать:

0 комментариев
Комментариев ещё нет — ваш может стать первым.


Оцените статью

  1. 5
  2. 4
  3. 3
  4. 2
  5. 1
1 vote, average rating 5 of 5 5 5