SEO-аудит сайта

SEO-аудит – это один из видов анализа сайта, позволяющий оценить уже проведенные работы по поисковой оптимизации, выявить допущенные ошибки и составить перечень работ, которые необходимо сделать, чтобы достигнуть наилучшего результата в поисковом продвижении. Как и любой аудит, SEO-аудит лучше проводить независимому эксперту.

В базовый SEO-аудит входит анализ первостепенных аспектов технической оптимизации и юзабили-аудит в самых общих чертах. Аудит семантики сайта и семантическое проектирование в базовый аудит не входят.

В свою очередь, комплексный SEO-аудит может включать в себя различной глубины анализ семантики и её проработку.

Нужен SEO-аудит?

Аудиторская работа, равно как и консалтингово-аналитическая – как устная, так и письменная, как очная, так и заочная – тарифицируется по часам, стоимость одного часа – 2000 рублей. Цена базового аудита составляет 8000 руб. (из расчёта 4 нормо-часа).

Такой подход представляется мне более прозрачным и эффективным, как для меня, так и для клиента, по сравнению с абстрактной ежемесячной платой. Более подробно об seo-услугах и ценах на них можно посмотреть здесь.

Я сам сейчас новые проекты на продвижение не беру – веду несколько своих и клиентских (так исторически сложилось) и сконцентрировался на консультировании по сео, на обучении сео, seo-аудите и семантическом проектировании.

Закажите seo-консультацию и seo-аудит по почте sergey.saltykov@gmail.com или в соцсетях – vk.com/sergiustoday и fb.com/sergey.saltykov.75 – прямо сейчас!

 

Как SEO-аудит помогает увеличить продажи и уменьшить издержки

Очень важно определиться с целью, ради которой проводится аудит. Для чего он делается?

  • Многие считают, что цель аудита будет достигнута, если увеличатся продажи продвигаемых услуг или хотя бы улучшатся позиции и/или увеличится целевой органический трафик на сайт.
  • Но оказывается, даже в том случае, если этого не произойдет, аудит, возможно, был полезен, и даже очень существенно. Одной из значимых целей аудита может быть недопущение лишних, неэффективных трат.
    Предположим, аудит показал, что запускаемый проект неэффективен в принципе. Это заключение позволяет сэкономить порядка 3050 тыс. руб. за каждый месяц неэффективного продвижения. Если предположить, что без аудита эта принципиальная провальность проекта станет ясной через полгода-год, то легко посчитать, что аудит позволил сэкономить около полумиллиона рублей, что само по себе представляет значимый результат.
 

Что входит в SEO-аудит, стоимость услуги


В базовый SEO-аудит входит проверка технических аспектов поисковой оптимизации, в основном относящихся к уже имеющейся семантике. Сюда не входит семантическое проектирование сайта, то есть сайт анализируется «как есть».

  • Найденные технические ошибки ранжируются по значимости и эффективности для продвижения (от того, что прям обязательно исправить, до того что желательно бы добавить). Такое ранжирование позволяет сконцентрироваться на главном, экономить ресурсы и не упираться в то, что точно работать не будет, хотя и может казаться, что должно;
  • юзабилити-аудит сайта в целом (без глубокого юзабилити-анализа отдельных страниц).

Результаты базового аудита можно подразделить на две категории:

  • Проект перспективный, для оптимизации необходимо сделать следующее... Вы получаете список необходимых действий.
  • Проект в принципе неэффективен, оптимизация не принесёт результата. Вы получаете детальное обоснование этого вывода и экономите ресурсы.

По базовому аудиту обычно взаимодействие строится следующим образом. Вы сообщаете адрес сайта, даете доступ к Яндекс- и Гугл-вебмастеру, Метрике и/или GA, оплачиваете аудит, и через два-три рабочих дня я присылаю вам результат аудита. В стоимость включены 20 мин. обсуждения по скайпу его итогов. Первичный детальный анализ-аудит стоит 8000 руб. (что соответствует 4 нормо-часам).


В свою очередь в ходе комплексного сео-аудита анализируется, как была проведена работа и/или каково состояние по четырём фронтам SEO-работ:

  • Анализ технических аспектов оптимизации.
  • Анализ коммерческих факторов ранжирования, в частности, юзабилити-аудит сайта
  • Анализ контента сайта.
  • Анализ ссылочного профиля сайта.

Кроме того, дополнительно могут быть даны рекомендации по:

То есть в наиболее полный SEO-аудит входит оценка каждого отдельного элемента сайта, который можно и нужно оптимизировать. Проверяется, был ли он улучшен, сделан удобоваримым для поисковых роботов, или нет. Если этот элемент был оптимизирован, то насколько хорошо.

Семантическое проектирование

В случае, когда базовый SEO-аудит показал перспективность проекта, следующим важным этапом поисковой оптимизации становится семантическое проектирование - формирование семантического (смыслового) наполнения сайта, на основе которого в дальнейшем необходимо создавать текстовый контент.

Семантическое проектирование   это целый комплекс работ, содержащий обычно несколько итераций. Он начинается с формирования семантического остова, костяка, скелета и завершается размещением соответствующих текстов. Непосредственно за семантическим проектированием следует распространение созданного контента и анализ его эффективности с точки зрения отслеживаемых показателей (KPI).

Стоимость семантического проектирования: как ни считай, эта работа обычно не может занимать меньше 12-15 часов, то есть стоит примерно от 25 тыс. руб. Или примерно от 15 тыс. руб., если сделать только общую проработку семантики без учета детальной проработки особо важных страниц. Точную стоимость семантического проектирования можно будет определить после проведения аудита.

На выходе вы получите информацию о том, какие новые страницы нужно создать и как имеющиеся дополнить. И какими семантическими кластерами ключевых фраз наполнять новые и дополнять существующие. 

Иногда в некоторых темах и для некоторых копирайтеров это может служить входной точкой и быть фактически ТЗ. Иногда надо делать формальное и более строгое ТЗ, тогда это занимает время, и часто весьма существенное, очень грубо – еще часов 5, то есть еще плюс 10 тыс. Но если учесть, что это разовые работы (ну, или требующие актуализации раз в год-полтора), то это все равно будет в разы меньше и гораздо прозрачней сумм продвижения на абонентке

 

 

Какими принципами следует руководствоваться при проведении SEO-аудита

Основными принципами, которыми следует руководствоваться:

  • В первую очередь нужно аудировать SEO-стратегию, а потом уже детали реализации.
  • Относительно рекомендуемых алгоритмов SEO-продвижения в ходе аудита необходимо решить задачу о ранце - то есть расположить предлагаемые рекомендации последовательно, от самых критичных до самых необязательных.

Выбор SEO-стратегии

Если анализ стратегии показывает её несостоятельность, то корректная реализация технических деталей не спасет ситуацию.

Очень упрощенно можно считать, что для разных типов сайтов следует делать упор на различные аспекты: для интернет-магазинов очень важны широта охвата товарного ассортимента и удобство использования сайта, а также «прокаченность» других коммерческих факторов, а для сайтов-статейников всех видов и типов важна глубина проработки контента.

Если у команды интернет-магазина по каким-то их причинам нет возможности расширить номенклатуру товаров (например, они не готовы заморачиваться продажей новых групп товаров) или нет возможности существенно улучшить юзабилити сайта (например, не готовы менять существующий движок сайта, так как недостаточно соответствующих технических и организационных компетенций, чтобы сделать все без ошибок), тогда играясь с другими инструментами, достичь большого прогресса в продвижении будет сложно.

В то же время, для интернет-магазинов и разного рода каталогов и агрегаторов, для которых коммерческие факторы (навигация по сайту, категоризация, фильтрация товаров, информация о компании, её представительствах и т.д.) очень важны, SEO само по себе может иметь ограниченную эффективность, и это тем более верно, чем более «незатейливые» товары и услуги продает / агрегирует сайт. По этому поводу в статье есть следующее мнение:

«в SEO имеются важные коммерческие и поведенческие факторы, которые показывают насколько сильный бизнес стоит за сайтом и насколько сайт нравится пользователям. Если так случится, что бизнес-модель сайта окажется слабой и нежизнеспособной, вряд ли получится раскрутить по SEO такой сайт в принципе».

Аналогично если некто планирует продвижение блога, или агрегатора некой «нерасколдованной» тематики, или любого другого статейника, а ему при этом нечего сказать принципиально нового в этой тематике, то шансы на успешное продвижение невысоки, особенно на долгосрочной перспективе.

Коротко: если SEO-стратегия выбрана неверно, или нет возможности или желания реализовать верную, то пляски с самыми известными сеошными штуками не помогут – можно сколько удобно менять туда-сюда тайтл, метаописание и заголовки, закупать ссылки на биржах, меняя долю анкорных и безанкорных, все равно результат будет близким к нулю.

 

Реализация SEO-стратегии

Итак, со стратегией разобрались. Теперь перейдем к рассмотрению конкретных инструментов в рамках уже выбранной стратегии. Важно помнить, что в их использовании нужно следовать принципу Парето 80 на 20, то есть на используемых инструментах должна быть решена задача о ранце. Ориентация на решение этой оптимизационной задачи – еще один из основополагающих принципов проведения сео-аудита. 

Коротко: Нижеприведенные средства SEO-продвижения проранжированы по их приоритетности (критичности, необходимости).

 

Технический базовый аудит: первостепенное

Для поиска ошибок, самым существенным образом влияющих на ранжирование сайта, стоит использовать несколько групп инструментов:

  1. Средства для веб-мастеров, предоставляемые самими поисковиками
  2. Сервисы, созданные крупными игроками рынка, осуществляющими связь между гигантами-поисковиками и владельцами отдельных сайтов
  3. Средства аналитики, предоставляемые поисковиками.

Мы рассмотрим, как использовать каждую из этих групп инструментов, в порядке уменьшения (в среднем) полезной для целей аудита информации, которую можно извлечь из этих инструментов.

 

Аудит средствами третьих производителей

Есть специальные сервисы, которые помогают в автоматическом режиме сделать часть важных работ по техническому анализу сайта. Такие сервисы запускают на сайт собственных «пауков», то есть изучают сайт своими краулерами. В результате такого анализа можно получить следующую информацию:

  1. Тайтлы отсутствующие, дублирующиеся
  2. Отсутствие заголовка (тег h1).
  3. Страницы, закрытые от индексации (мета-тегом noindex или в robots.txt)
  4. Проверка на вирусы
  5. Проверка на некоторые фильтры

Рассмотрим более подробно, как анализ можно произвести сервисом SerpStat. Для начала нам нужно нужный домен добавить в список проектов и задать настройки аудита. Самым часто используемым параметром является число сканируемых страниц. Затем нажимаем кнопку «начать аудит», и специализированные краулеры начнут обход сайт страница за страницей, анализируя каждую из них на предмет технических ошибок.

Запуск технического SEO-аудита в SerpStat.Com

После анализа будет представлен перечень найденных ошибок, проранжированных по степени важности их для оптимизации. Не всегда с этим ранжированием стоит соглашаться. Например, слишком длинные тайтлы я бы отнес не ко второй группе важности, а к третьей, но это все уже нюансы. Грубо говоря, если мы не выделяем отдельно базовую ступень аудита и следующую за ней, то представленное ранжирование ошибок представляется в высшей степени адекватным. Но если из продуктовых соображений нам нужно выделить базовый аудит, нам приходится вводить более гранулированное ранжирование, а в некоторых случаях и менять ранги местами.

Итак, в числе прочих сервис нам найдет ошибки отсутствия и дублирования тайлов. Это очень грубая ошибка для ранжирования многих страниц оказывается фатальной.

Поиск отсутствующих и дублирующихся тайтлов сервисом SerpStat.Com

 

На каждой странице, во-первых, должен быть тайтл, во-вторых, только один и, в-третьих, он должен быть уникальным в пределах всего сайта.

В противном случае страница или не будет проиндексирована вообще, или будет признана дублем и поэтому помещена во вторичный индекс. То есть, в любом случае такая страница не будет участвовать в ранжировании.

 

Использование сервисов для веб-мастеров от поисковиков

Следующим этапом первостепенных проверок в рамках аудита технической SEO-оптимизации является использование специальных сервисов для веб-мастеров от поисковиков – Google Search Console и Яндекс.ВебМастер. Их использование позволяет выявить следующие моменты:

  • Наличие автоматически наложенных фильтров поисковиков.
  • Наличие ручных санкций.
  • Много ли страниц выпадает из индекса и почему?
  • Что происходило раньше? Не отдавал ли сервер ошибки (500-е), не было ли других массовых ошибок (300-е, 400-е).
  • Нет ли фильтрации именно роботов поисковиков?
  • Ещё проверка на вирусы в дополнение сервисам третьих производителей.
  • Какие параметры урла поисковики считают за параметры пагинации?
  • Какие параметры урла поисковики считают за параметры сортировки и отображения?

Поясним некоторые из этих пунктов. Некоторые фильтры поисковых систем – как ручные, так и автоматически налагаемые – можно диагностировать глядя на сайт «извне» сервисами третьих производителей. Но в некоторых случаях факт наложения фильтра сложно идентифицировать по изменению как позиций, так и видимости в поисковой выдаче, а также по другим косвенным признакам, таким как обнуление ТИЦ и некоторые другие. В этом случае узнать о фильтре можно только из информации в ВебМастере.

Еще полезно отследить соотношение числа страниц в индексе и число посещаемых краулером страниц: это позволяет выявить причины иногда очень нерационального использования краулингового бюджета.

Кроме того, в вебмастерах видно, что происходило ранее. Допустим, сейчас на момент аудита c сайтом все нормально в техническом отношении, но позиции и трафик – ужасные. В чем может быть дело? Одна из возможных причин, что на сайте в течение долгого времени было очень много технических ошибок и, как следствие, низкий авторитет был у сайта в глазах поисковиков. А когда владельцы бизнеса спохватились, нерадивые технари быстро исправили косяки, поэтому на момент аудита причины бедственного положения с трафиком могут быть неясны. В этом случае вебмастера позволяют увидеть техническую ситуацию ретроспективно и разобраться в причинах.

Также в вебмастерах можно посмотреть, как сайт откликается именно на «пауков» поисковиков. Иногда бывают такие ситуации, когда сайт прекрасно доступен для пользователей интернета, но не доступен для роботов. В вебмастере можно «поймать» такую ситуацию. Как такое может случиться? Иногда админы сайта могут специально запретить краулерам поисковика посещать сайт, а потом забывают отключить запрет индексации. Несмотря на курьезность ситуации, она встречается не так уж и редко.

В вебмастерах также можно увидеть дополнительную информацию о наличии / отсутствии вирусов на сайте. Да, это можно проверить и глядя на сайт извне, но такая дополнительная проверка от поисковиков все равно полезна.

В вебмастере Гугла можно увидеть, какие параметры урла он относит к параметрам какого типа. И, соответственно, надо ли, по его мнению, индексировать страницы различающиеся значениями этого параметра. Важно посмотреть, смог ли Гугл распознать параметры пагинации (разбивки на страницы), сортировки и отображения. Страницы, отличающиеся значением первого параметра, нужно индексировать, последующих – нет.

 

Использование Метрики и Google.Analytics

Есть несколько моментов в техническом seo-аудите, о которых мы можем достоверно узнать только из систем внутренней статистики сайта – Яндекс.Метрики и Google.Analytics. Это, в числе прочего:

  • Есть ли связь ссылочного взрыва и трафика с поисковиков.
  • Есть ли связь ссылочного взрыва и переходов по ссылкам.

Факт ссылочного взрыва легко увидеть внешними средствами аналитики, например, тем же SerpStat-ом. А вот проинтерпретировать его без доступа ко внутренней статистике уже сложнее. Привело ли это резкое увеличение числа ссылок к заметному роста трафика? Или, быть может, этот резкий скачок стал причиной попадания сайта под фильтр? Ответы на эти вопросы являются стратегически важными при проектировании дальнейшей ссылочной стратегии: надо все-таки понять, ощутить на практике владельцу сайта, работает ли конкретно данный тип ссылок на конкретно его сайте или нет?

Увидеть зависимость между ссылочным ростом и ростом трафика внешними средствами сложно, так как ими более-менее достоверно можно отследить лишь видимость ресурса в поисковой выдаче. Теоретически последняя хорошо коррелирует с трафиком, но на практике не всегда можно пользоваться этой зависимостью для того, чтобы делать выводы: расчет численного значения видимости зависит от многих факторов (прежде всего, от базы анализируемых ключевых фраз, которая регулярно как чистится, так и дополняется). Поэтому численное значение видимости на деле часто «прыгает». Содержательной интерпретации неплохо поддается лишь ряд идущих друг за другом значений в отсутствии пересчета базы. Напротив, сравнивать между собой значения видимости сейчас и, скажем, полгода назад уже «небезопасно», так как за это время могло произойти несколько пересчетов, а также чисток, дополнений базы, и поэтому значения уже нельзя между собой сравнивать.

Кроме того, даже если предположить, что мы анализируем отрезок времени, когда видимость в поисковой выдаче и трафик хорошо коррелируют друг с другом, нам все равно сложно понять, чем вызвано существенное изменение видимости сайта – сезонными колебаниями или «работающими» ссылками. Напротив, средства внутренней аналитики хорошо позволяют учесть сезонные колебания трафика. Из всех этих рассуждений следует, что по-настоящему корректно проинтерпретировать результаты видимого внешними средствами ссылочного взрыва мы можем лишь имея доступ к внутренней статистике сайта. Анализ данных Метрики и Google.Analytics позволит нам увидеть ситуацию в том же сезоне, и понять, есть ли уже сейчас изменения, к которым привело появление новых ссылок.

Но допустим, мы выяснили, что на данный момент результатов по трафику нет, как нам понять, будут ли они в дальнейшем? Для этого нам нужно понять, какие ссылки работают, а какие нет. Если кратко, то по ссылкам должны идти переходы настоящих, «живых» пользователей, это необходимое (но не всегда достаточное) условие того, чтобы ссылка работала. Соответственно, можно посмотреть, сколько переходов с доменов с новыми ссылками. Если в течение длительного времени (в течение нескольких месяцев) их нет, то значит, что ссылки размещены в местах веба, которые никто особо не посещает и/или в текстах, которые никому особо не интересны. Такие ссылки работать не будут, и ссылочный взрыв этому не поможет.

Есть и другие случаи, когда использование внутренней статистики необходимо при проведении аудита.

 

Технический базовый аудит: дополнительное

Есть такие проверки в рамках базового технического аудита, которые, с одной стороны, исключить из базового «рука не поднимается», но они не приносят какого-то прорывного результата, с другой стороны. Такие проверки мы отнесем к дополнительным. Кроме прочего, к ним относятся:

  • Несколько h1 на одной странице
  • Отсутствует метаописание
  • Не 301-е редиректы
  • iframe
  • flash
  • Мобильная адаптация
  • Редирект с www и https
  • Отсутствие ssl-сертификата

Известно, что на каждой веб-странице должен быть тег заголовка h1 и должен быть только один. Соответственно, если тег h1 отсутствует, это критичная проблема, а если их на странице несколько, то проблема тоже есть, но в этом случае её критичность ниже. Существуют разные точки зрения на множественный тег заголовка на странице. Одни считают, что стандарт html5 это в принципе допускает. Другие считают, что это недопустимо, и приводит к существенному снижению ранжирования. Третьи, что это не так принципиально, так как поисковики примут во внимание только первый тег.
Моя позиция по данному вопросу в некотором смысле промежуточная: скорее всего, поисковики будут ориентироваться на какой-то один из теговой, вероятнее всего, первый, но наличие множественности тега все равно заметят, и это чуть-чуть ухудшит ранжирование. То есть, подправить это, безусловно стоит, но если было замечено, что такая ошибка есть, и она на странице довольно давно, то это не катастрофа.
Отсутствие метаописания на странице (мета-тега description) находится примерно в той же «весовой категории». Исправить это, конечно, надо, особенно потому, что метаописание очень часто (особенно Гуглом) берется за основу формирования сниппета и, следовательно, влияет на конверсию страницы. Но после исправления не стоит ждать, что появившееся метаописание резко увеличит результаты по трафику и позициям.

Рассмотрим другую часто встречающуюся ошибку, когда на сайте вместо 301-х редиректов используются какие-то другие редиректы (302, 303 и т.д.) Идея в том, что 301-й редирект специально предназначен для передачи «веса» страницы-донора странице-акцептору. При всех же остальных видах редиректов такой передачи не происходит, поэтому снижается ссылочная связанность сайта, и это может сказаться значимо на ранжировании страниц, на которых ведет редирект. Поэтому это, конечно, нужно подправить.

Следующие два пункта, которые нужно рассмотреть, это наличие тега iframe и использование на сайте технологии flash в отношении значимого контента. В некоторых случаях использование iframe оправдано и даже необходимо, но иногда его используют избыточно, а надо знать, что контент внутри этого тега не индексируется. Более того, использование слишком сложных конструкций внутри тега iframe (например, подгрузка скриптом другого кода, содержащего iframe или еще код, подгружающий третий) может привести к бану сайта поисковиками, так как они могут счесть такие ничем не оправданно сложные схемы загрузки частей веб-страницы попыткой их обмануть и представить пользователю и роботу поисковика в итоге разный контент. Содержимое flash-а также не индексируется, так что хоть сколько-нибудь ценный контент из него стоит перенести в html.

Роль мобильной адаптации сайта, на мой взгляд, несколько преувеличена. Да, конверсию сайта с мобильного она увеличивает, а вот насколько она влияет на ранжирование главным образом десктопной версии – это большой вопрос. На десктопную, вероятнее всего, мало влияет, на мобильную влияет, но тоже не слишком радикально. Поэтому здесь разумным представляется предложить отталкиваться от конверсии: если у вас контентный сайт, и он конвертирует посетителей даже без мобильной адаптации, скорее всего, добавление адаптивной верстки изменит ранжирование не значительно. И наоборот, если у вас интернет-магазин, и пользователи, заходящие на сайт с мобильного сразу убегают с него, так как ничего разглядеть невозможно, то адаптивная верстка может спасти ситуацию как в отношении конверсии, так и заметно улучшить ранжирование. 
У сайта должно быть одно главное зеркало, и со всех остальных зеркал должен идти 301-й редирект на это главное зеркало. Но это правило частенько не соблюдается, чаще всего это касается префикса www и указания на защищенный протокол https. В итоге сайт часто имеет 4 равноправных, с точки зрения поисковика, версии – с www и без www, c https и без https. И сила всего сайта «распыляется» между этими четырьмя зеркалами. Для того, чтобы этого «распыления» не происходило, нужно из четырех зеркал выделить одно главное (лучше всего взять вариант с https и без www) и со всех оставшихся трех вариантов организовать 301-й редирект на это главное зеркало.
Кроме того, отдельный повод задуматься – это отсутствие вообще у сайта доступности по защищенному протоколу. Здесь тоже все не так однозначно. Если у сайта нет ssl-сертификата, и, следовательно, он не доступен по протоколу https, то само по себе это еще ни о чём не говорит. Есть, конечно, информация о том, что «незащищенным» сайтам поисковики меньше доверяют и поэтому они ранжируются хуже, но моим наблюдениям это зависит от типа сайта. Есть много кейсов, где показано, что переход на https не привел ни к какому улучшению трафика, а в Яндексе это наоборот приводит к временному снижению трафика (пока автоматическая склейка зеркал не завершится). Поэтому защищенный протокол сам по себе не панацея. Но его обязательно стоит использовать, если сайт редактирует большая и территориально распределенная команда, а уж особенно, если у вас UGC-сайт (User-generated content). Так как если хотя один из пользователей захочет зайти на сайт под своим паролем из кафешки, для незащищенного сайта пароль может быть перехвачен и, соответственно, сайт будет скомпрометирован. И наоборот, если контент сайта редактирует один человек, и он же владелец, и он не заходит под своим аккаунтом через публичный вай-фай, то он может быть пока спокоен.

 

 

За пределами базового технического аудита: третьестепенное

Есть те аспекты технического SEO-аудита, которые никак не могут войти в состав базового технического аудита: проверять их – дело, конечно, полезное, но явно третьестепенное. Если мы будем решать задачу о ранце, стремясь оставить в нём лишь то, что явно необходимо для первого этапа проверки (главным содержанием которого, напомню, является аудит стратегии продвижения и поиск самых крупных, грубых технических ошибок), то следующие аспекты технического состояния сайта туда не войдут:

  • Наличие страниц 404 на сайте
  • Короткие / длинные тайтлы
  • Короткие / длинные метаописания
  • Нарушена очередность заголовков
  • Нет sitemap
  • Нет robots.txt
  • Некорректные ссылки hreflang
  • Использование AMP / корректное или не корректное использование AMP
 

Ссылки на отсутствующие страницы (код 404)

Сервисы автоматического аудита, среди прочего, находят страницы, отдающие 404-й код http-статуса или по-другому «страницы 404», то есть уже более несуществующие страницы. Давайте разберемся, насколько плохо их наличие на сайте, о чём оно нам говорит и что нам нужно делать в этой связи. Обычно такие страницы возникают тогда, когда по данному веб-адресу было ранее некое значимое содержимое (тогда страница отдавала http-статус 200 – «ОК»), а теперь более нет нужны в этой странице. И мы хотим просигнализировать и поисковикам, и пользователям сайта что, да, страница была, но теперь её более нет, поэтому попробуйте или перейти на главную страницу, или сделать ещё некое другое действие на сайте. Поисковику это также сигнал, что данная страница может быть удалена из поискового индекса.
 
Зачем же так было сделано? Не проще ли было удалить данную страницу из базы данных, чтобы сайт как будто вообще о ней не знает? Нет, не проще. Дело в том, что в этом случае будет также отдаваться код 404: каждый раз, когда мы обращаемся к странице, про которую база данных не знает, отдается именно он. Только в этом случае будет показана «некрасивая» страница 404, которую покажет веб-сервер и которая ни визуально, ни тематически на сайт не похожа. Но хуже другое: с этой страницы, показанной веб-сервером «по умолчанию» не будет ссылки на наш сайт, и поэтому пользователь уйдет с сайта. Поэтому пользовательские страницы 404 создаются для того, чтобы удержать посетителя на сайте.
Если это так, то почему же сервисы аудита сайта считают наличие таких страниц нежелательным?
Это не совсем так. Наличие пользовательской обработки страниц 404 со ссылкой на главную страницу сайта, наоборот, воспринимается положительно, а отсутствие такой обработки считается недостатком. В перечне же ошибочных страниц 404 приводятся те, ссылки на которые есть на других, «существующих» страницах сайта.

То есть, например, на существующей странице категории «карандаши» есть ссылка на товар «карандаш зеленый», но когда мы щелкаем на по этой ссылке, открывается страница, отдающая 404-й код. Такая ситуация – явный недочет, так как мы вынуждаем пользователя сделать лишнее действие – нажать на ссылку и лишь потом увидеть, что товара такого нет. Правильным было бы в принципе исключить ссылку на уже отсутствующий товар из категории. Тогда получилось бы следующим образом: если пользователь щелкнет по ссылке, ведущей на «карандаш зеленый» на форуме, он увидит красивую страницу, говорящую, что такого товара больше нет и предлагающую ему перейти на главную страницу сайт и/или посмотреть другие карандаши из этой или других категорий. Но щелкая по ссылкам на сайте, он никогда не сможет наткнуться на наш зеленый карандаш.
 
Но если это будет не так, и ссылки на отсутствующий товар все же будут присутствовать, насколько это будет плохо? Это будет небольшая оплошность или серьезный огрех, серьезно сказывающийся на поисковой оптимизации? Описанного выше уже достаточно, чтобы понять, что это будет небольшая оплошность, немного осложняющая жизнь пользователю, но сама по себе не имеющая серьезных последствий.

Действительно, код 404 специально и предназначен, чтобы показать, что страницы больше нет, что её можно исключить из индекса, так что это не скажется плохо ни на странице, которой уже нет, ни на той, что на неё ссылается (если, конечно, это не делается систематически).

Коротко: если ссылок на страницы 404 на сайте действительно много, то это стоит подправить, если чуть-чуть, то исправлять их – явно не первостепенная задача. Но несмотря на это в рамках базового аудит о них тоже сообщается. Главное, не придавать этому слишком много внимания.
 

Слишком короткий или длинный тайтл

Следующая ошибка, на которой следует остановиться, это слишком короткие или слишком длинные тайтлы. Сначала разберемся со слишком короткими.

Если сервис показывает, что тайтл слишком короткий, насколько это критично? Строго говоря, это вообще не техническая ошибка, это недочет, неполнота семантического проектирования. И единственное, чем он плох, это упущенными семантическими возможностями: в этот тайтл можно было бы «запихнуть» гораздо больше ценных ключевых фраз, а если тайтл короток, значит, эта возможность была использована не полностью. Но в ходе базового аудита мы можем лишь проконстатировать, что, вероятнее всего, имеет место некое семантическое упущение, но в чем именно оно состоит, и как его исправить, мы сможем решить лишь на следующем за базовым аудитом этапе – семантическом проектировании. Поэтому более мы этого касаться здесь не будем.

Перейдем к рассмотрению другого варианта – тайтл слишком длинен.

Здесь сервисы автоматического аудита часто «перегинают палку»: они сигнализируют о слишком длинном тайтле часто исходя из неких мифических ограничений. И это системный недостаток таких сервисов. Есть соответствующие исследования, показывающие, что тайтл не стоит «впихивать» в какой-то ограниченный, небольшой набор символов. Но даже безо всяких исследований попробуем объяснить это просто исходя из здравого смысла. Задумаемся, чем плох длинный тайтл? Он не будет полностью виден пользователю ни во вкладке браузера, ни в сниппете в поисковой выдаче. Ну и что? Главное, чтобы его начало было адекватным, а ключевые слова, содержащиеся в конце тайтла, могут показываться в сниппете по запросам, их содержащим, так зачем же упускать такую возможность?

В действительности, на практике плоха обычно не длина тайтла, а то, что в длинном тайтле содержатся или грубые повторы (чтобы захватить побольше ключевых слов), или явно нерелевантные ключевые фразы, которые по сути не относятся к данной веб-странице как целому, а присущи лишь какому-то аспекту темы, которой посвящена данная веб-страница. И именно об этом нам хотят просигнализировать сервисы.

В первом случае – когда есть повторы, перефразировки ключевых фраз – они явно избыточны, так как соответствуют SEO-реалиям уже ушедшего времени: тогда поисковики еще плохо различали семантическую близость ключевых фраз, поэтому их всех приходилось «зашивать» в теги, чтобы сайт по ним ранжировался. Теперь такой необходимости нет: из ключевых фраз, значащих примерно одно и то же и находящихся в одном семантическом кластере, в тайтл стоит добавить лишь одну, скорее всего, самую высокочастотную (или самую конверсионную). Во втором случае «неправильно длинный» тайтл содержит в себе обычно интересующие владельца, но не целевые для данной веб-страницы ключевые фразы, не относящиеся – опять же обычно – к странице как целому. Это также ошибка семантического проектирования, запутывающая, замутняющая релевантность данной страницы.

Слова, относящиеся к части нашей страницы, скорее всего, принадлежат отдельному семантическому кластеру, несовпадающему с главным кластером нашей страницы, поэтому поисковики по такому путаному тайтлу не смогут понять, к какому из кластеров в большей степени принадлежит наша страница. И не поняв это, не сможет отнести её ни к одному, ни к другому, что, конечно же, негативно скажется на ранжировании этой страницы. Поэтому в этом случае, указывая на длину тайтла, поисковики сообщают нам, что есть высокая вероятность, что в тайле есть слова и фразы, которые вообще туда не должны были попасть вне зависимости от длины тайтла.

Коротко. Короткий тайтл – это семантическое упущение. Длинный (но не супер) тайтл – это само по себе не плохо, но на практике это часто указывает на то, что в нём есть или дубли ключевых фраз, или фразы, нерелевантные странице в целом. Семантическое упущение нужно устранить и тайтл очистить от дублей и нерелевантных включений. Но эта работа в базовый аудит не входит и выполняется на этапе семантического проектирования.
 

Слишком короткое или длинное метаописание

Здесь логика во многом такая же, как с короткими и длинными тайтлами (см. выше).
Излишне короткое метаописание – это упущенные семантические возможности, сказывающиеся как на полноте индексации страницы, так и на её конверсии из поисковой выдачи. Но в рамках базового аудита мы можем лишь указать на это, исправлять это придется уже на этапе проектирования семантики сайта.
 
В свою очередь слишком длинное метаописание перегружено-переспамлено или какими-то повторами, или лишними фразами. Но все-таки у метаописаний есть своя специфика: в действительности они могут быть гораздо длиннее, чем о них принято думать, и сейчас это начинает находить дополнительные подтверждения. Недавно, в частности, Гугл почти вдвое удлинил отображаемое в сниппете поисковой выдачи метаописание. И многие сервисы попали впросак: они долгое время сигнализировали об ошибках, а оказалось, что это не только не ошибка, но и, более того, очень даже желательно, чтобы метаописание было столь развернутым.
 
Рассмотрим, например, метаописания «Медузы». Мы видим, что даже до внесенных Гуглом изменений, они в несколько раз превышали рекомендуемые сервисами параметры, и все у них было хорошо. А после изменений их длинные дескрипшны только стали смотреться выгоднее.
К мысли о том, что хорошие метатеги description могут быть достаточно велики, можно прийти и другим путем. Достаточно вспомнить, как они появились, с чего они были «срисованы», что явилось их прототипом.
 
Как мы знаем, базовые элементы html-структуры веб-страницы были прямо скопированы со структуры научной статьи. Действительно, а зачем было выдумывать что-то новое, если старая структура весьма неплохо работала? И здесь метаописание выступило прямым аналогом абстракта (аннотации) научной статьи. А мы знаем, что по соответствующим требованиями аннотация должна занимать существенный объем, чтобы довольно полно, целостно раскрыть суть статьи, а не просто указать на нее.
 
В этой аналогии легко понять, идеальное метаописание – довольно развернутое. Просто на первоначальном этапе развития интернета сами статьи были куцыми, а фактически их аннотации – уж и подавно. И эту временную ситуацию многие специалисты поспешили зафиксировать как окончательную, уже состоявшуюся. Легко понять, что такие специалисты ошиблись: естественной логикой развития метаописания явилось его увеличение и улучшение его структуризации.
 
Легко догадаться, что идеальный дескрипшн будет различным для разных типов сайтов. Иногда предполагают, что раз метаописание было скопировано именно с научных статей, то и большим оно должно быть только для нетривиальных тематик. Но это не так. Уже хотя бы опыт «Медузы» показывает, что и для новостной тематики, которую сложно назвать нетривиальной, такой подход так же является релевантным. То есть мы пришли к тому, что для всех «статейников» – как тривиальных, так и нетривиальных – объемное, экспертное метаописание – это правильный подход. А как же быть с интернет-магазинами? Здесь этот вопрос пока является открытым.
Коротко. Короткое метаописание – семантическое упущение. Само по себе длинное метаописание – это не плохо. Метаописание нужно прочищать от дублей и нерелевантных включений. Так как метаописание было скопировано с аннотации научной статьи, то для всех статейников оно должно быть объемным, насыщенным и экспертным. Вопрос относительно длины метаописаний страниц интернет-магазинов менее очевиден и проработан.
 
 
Сергей Салтыков – SEO-консультант
 
Сергей Салтыков – консультант по SEO, SEO-практик, экс-доцент НИУ ВШЭ. Автор прикладных и научных статей по SEO.

 

 

 

 
 
 
Основные статьи

Как продвинуть сайт самому

SEO-алгоритмы

SEO-стратегии

SEO

SEO-аудит

SEO-консультации

Курсы по SEO

SEO-портфолио и отзывы

SEO-услуги и цены

Кластеризация семантики сайта

SEO-факторы

  

Статьи на блоге Devaka.Ru

Google-определения

Постинг в Google+

Метрика опасности ссылок

 

Шпрингер: научные статьи

Typology of SEO-Strategies

 
 
 

Нужна помощь? Закажите seo-консультацию и seo-аудит по почте sergey.saltykov@gmail.com или в соцсетях – vk.com/sergiustoday и fb.com/sergey.saltykov.75 – прямо сейчас!

Читать в Телеграме – t.me/seotuition