Регистрация Вход
Поисковое продвижениеSEO-аудит    ноября 20, 2017

SEO-аудит сайта

SEO-аудит – это разновидность анализа сайта, заключающаяся в оценке проведенных или предстоящих работ по поисковой оптимизации. Как и любой аудит, SEO-аудит лучше проводить независимому эксперту. В базовый SEO-аудит входит анализ первостепенных аспектов технической оптимизации и юзабили-аудит в самых общих чертах. Аудит семантики сайта и семантическое проектирование в базовый аудит не входят. В свою очередь, комплексный SEO-аудит может включать в себя различной глубины анализ семантики и её проработку.

Нужен SEO-аудит? Аудиторская работа, равно как и консалтингово-аналитическая – как устная, так и письменная, как очная, так и заочная – тарифицируется по часам, стоимость одного часа – 2000 рублей. Цена базового аудита составляет 6000 руб. (из расчёта 3 нормо-часа). Мне представляется, что такой подход более прозрачный и эффективный как для меня, так и для клиента по сравнению с абстрактной ежемесячной платой. Более подробно об seo-услугах и ценах на них можно посмотреть здесь.

Я сам сейчас новые проекты на продвижение не беру – веду несколько своих и клиентских (так исторически сложилось) и сконцентрировался на консультировании по сео, на обучении сео, seo-аудите и семантическом проектировании.

 

Нужна помощь в SEO? Запишитесь на SEO-аудит или SEO-консультацию по почте sergey.saltykov@gmail.com или в соцсетях – vk.com/sergiustoday и fb.com/sergey.saltykov.75 – прямо сейчас!

 

SEO-аудит

Содержание (кликните на разделе, чтобы перейти непосредственно к нему):

  1. Что входит в SEO-аудит
  2. Зачем нужен SEO-аудит
  3. Какими принципами следует руководствоваться при проведении SEO-аудита
  4. Технический базовый аудит: первостепенное
    1. Аудит средствами третьих производителей
    2. Использование сервисов для веб-мастеров от поисковиков
    3. Использование Метрики и Google.Analytics
  5. Технический базовый аудит: дополнительное
  6. Источники и материалы про seo-аудит и смежным темам

 

 

Что входит в SEO-аудит

В ходе осуществления сео-аудита по большому счёту анализируется, как была проведена работа и/или каково состояние по четырём фронтам SEO-работ:

  • Анализ ссылочного профиля сайта.
  • Анализ технических аспектов оптимизации.
  • Анализ коммерческих факторов ранжирования, в частности, юзабилити-аудит сайта
  • Анализ контента сайта.

Кроме того, дополнительно могут быть даны рекомендации по:

В SEO-аудит входит оценка каждого отдельного элемента сайта, который можно и нужно оптимизировать. Проверяется, был ли он улучшен, сделан удобоваримым для поисковых роботов, или нет. Если этот элемент был оптимизирован, то насколько хорошо.

Одним из важных элементов аудита является умение проводящего этот аудит оценить соотношение стоимости (во всех смыслах) проведения оптимизации и потребности эту оптимизацию проводить. То есть, способность оценить, стоит ли игра свеч, когда остаются какие-то недочеты с сайтом, исправлять которые бывает затруднительно и технически слишком заморочено. Но это нужно только в том случае, если проводящий аудит и те оптимизаторы, которые проводили оптимизацию сайта, находятся на одной позиции по тому, каким типом оптимизации следует пользоваться. Использовать ли только белую оптимизацию или надо поднимать сайт в топ за счет черной оптимизации. В том случае, если человек, проводящий этот аудит, стоит на позициях белого сео, а проводили оптимизацию черные сеошники, то вердиктом аудитора будет переделать вообще всю проделанную работу, поскольку черное сео является стратегически менее успешным подходом.

Туда входит проверка технических аспектов в основном, имеющих отношение к поисковому продвижению на уже имеющейся семантике. Найденные технические ошибки ранжируются по значимости и эффективности для продвижения (от того, что прям обязательно исправить, до того что желательно бы добавить. Такое ранжирование позволяет сконцентрироваться на главном, экономить ресурсы и не упираться в то, что точно работать не будет, хотя и может казаться, что будет. И юзабилити-аудит сайта в целом (без глубокого юзабилити-анализа отдельных страниц). Семантическое проектирование сайта не входит сюда.

Семантическое проектирование сайта (то есть системная работа над семантикой, семантическим ядром) – это целый комплекс работ, содержащий обычно несколько итераций. И как ни считай он (комплекс) обычно не может занимать меньше 12-15 часов, то есть примерно 25 тыс. руб. Или примерно 15 тыс. руб., если сделать только общую проработку семантики без учета детальной проработки особо важных страниц. На выходе будет информация, какие новые страницы нужно создать и как имеющиеся дополнить. И какими семантическими кластерами наполнять новые и дополнять существующие. Иногда в некоторых темах и для некоторых копирайтеров это может служить входной точкой и быть фактически ТЗ. Иногда надо делать формальное и более строгое ТЗ, тогда это занимает время, и часто весьма существенное, очень грубо – еще часов 5, то есть еще плюс 10 тыс. Но если учесть, что это разовые работы (ну, или требующие актуализации раз в год-полтора) то это все равно будет в разы меньше сумм продвижения на абонентке и прозрачней гораздо. Точную стоимость семантического проектирования можно будет определить после проведения аудита.

По аудиту обычно взаимодействие строится следующим образом. Вы сообщаете адрес сайта, даете доступ к Яндекс- и Гугл-вебмастеру, Метрике и/или GA, оплачиваете аудит и через два-три рабочих дня я присылаю вам результат аудита. В стоимость включены 20 мин. обсуждения по скайпу его итогов. Первичный детальный анализ-аудит стоит 6000 руб. (что соответствует 3 нормо-часам).

 

Зачем нужен SEO-аудит

Аудит проделанной оптимизаторской работы нужен в первую очередь для того, чтобы можно было сразу оценить масштаб готовности сайта, и обнаружить все ошибки, если таковые имеются, сразу же после проведенной работы, а не по истечении времени, когда сайт будет плохо котироваться поисковыми системами. Поскольку оптимизация – это действия, результаты которых видны отсрочено, то ошибки будут видны не сразу, а результаты исправления ошибок тем более. В настоящее время сроки проявления изменений на сайтах можно сократить, но только в гугле. Собственно, речь идет о такой возможности как добавление страницы в индекс в разделе гугла для вебмастеров. То есть раньше приходилось ждать по несколько недель, пока поисковик проиндексирует страницу и как-то ее оценит и начнет постепенно поднимать в выдаче, сейчас же это делается в несколько кликов. Но поскольку фактор времени и возраста сайта никто не отменял, то свежесозданный сайт прям сразу в топ по широким и средним запросам не выйдет. Также аудит может быть проведен с целью определения общей стоимости реальных работ. То есть оптимизаторы что-то сделали, сайт вроде бы в выдаче на высоких позициях, но они просят деньги за эту процедуру ежемесячно. Тогда возникает вопрос, что же они проводят, какими методами пользуются. В данном случае, очевидно, что это способ черной оптимизации путем покупки ссылок. Вопрос сколько денег уходит на ссылки, а сколько уходит в карман к этим людям и насколько дальновидно такое решение.

Очень важно определиться с целью, ради которой проводится аудит. Понять, для чего его делают. Многие считают, что цель аудита будет достигнута, если увеличатся продажи продвигаемых услуг или хотя бы улучшатся позиции и/или увеличится целевой органический трафик на сайт. Но оказывается, даже в том случае, если этого не произойдет, аудит, возможно, был полезен, и даже очень существенно. Так вот, одной из значимых целей аудита может быть недопущение лишних, неэффективных трат. Предположим, аудит показал, что запускаемый проект неэффективен в принципе. Это заключение позволяет сэкономить порядка 30 – 50 тыс. руб. за каждый месяц неэффективного продвижения. Если предположить, что без аудита эта принципиальная провальность проекта станет ясной через полгода-год, то легко посчитать, что аудит позволит экономить около полумиллиона рублей, что само по себе представляет значимый результат.

Например, для интернет-магазинов и разного рода каталогов и агрегаторов, для которых коммерческие факторы очень важны, SEO само по себе может иметь ограниченную эффективность, и это тем более верно, чем более «незатейливые» товары и услуги продает / агрегирует сайт. По этому поводу в статье есть следующее мнение:

«в SEO имеются важные коммерческие и поведенческие факторы, которые показывают насколько сильный бизнес стоит за сайтом и насколько сайт нравится пользователям. Если так случится, что бизнес-модель сайта окажется слабой и нежизнеспособной, вряд ли получится раскрутить по SEO такой сайт в принципе».

 

Какими принципами следует руководствоваться при проведении SEO-аудита

Основными принципами, которыми следует руководствоваться:

  • Оптимизация должна быть сделана без технических ошибок
  • Оптимизация должна быть белой

Итак, более подробно рассмотрим каждый пункт. Оптимизация должна быть проведена технически верно, то есть, если оптимизаторы путают заголовки и подзаголовки, делают неправильные урлы, не используют нужных атрибутов у ссылок и вообще проводят свою работу с грубыми ляпами, то это уже очень некачественная работа в принципе. Теперь о белой оптимизации. Мы придерживаемся мнения о том, что оптимизация должна быть только белой. Не только потому, что это является более приемлемым для поисковиков, но и потому, что, в конечном счете, этот метод выходит дорогим и менее надежным, нежели белая оптимизация. Также черная оптимизация более мутная по своей сути, при ее реализации оптимизаторы зачастую скрывают свои реальные траты на проведение работ (покупка ссылок).

При детальном рассмотрении самым важным анализом при проведении аудиторской работы должен быть анализ контента. Потому что проверить указаны ли все ссылки или расставлены ли заголовки легко, а вот определить степень зрелости текста, его простроеность и то, насколько он отвечает требованиям энциклопедизма гораздо сложнее. Если с контентом оптимизаторы сделали все верно, то, скорее всего, все остальное также качественно.

Одним из основополагающих принципов является то, что проаудирована должна быть в первую очередь сама стратегия поискового продвижения, а потом уже детали реализации этой стратегии. Если анализ стратегии показывает её несостоятельность, то корректная реализация технических деталей не спасет ситуацию. Очень упрощенно можно считать, что для разных типов сайтов следует делать упор на различные аспекты: для интернет-магазинов очень важны широта охвата товарного ассортимента и удобство использования сайта, а также «прокаченность» других коммерческих факторов, а для сайтов-статейников всех видов и типов важна глубина проработки контента. Если у команды интернет-магазина по каким-то их причинам нет возможности расширить номенклатуру товаров (например, они не готовы заморачиваться продажей новых групп товаров) или нет возможности существенно улучшить юзабилити сайта (например, не готовы менять существующий движок сайта, так как недостаточно соответствующих технических и организационных компетенций, чтобы сделать все без ошибок), тогда играясь с другими инструментами, достичь большого прогресса в продвижении будет сложно. Аналогично если некто планирует продвижение блога, или агрегатора некой «нерасколдованной» тематики, или любого другого статейника, а ему при этом нечего сказать принципиально нового в этой тематике, то шансы на успешное продвижение невысоки, особенно на долгосрочной перспективе.

Коротко: если SEO-стратегия выбрана неверно, или нет возможности или желания реализовать верную, то пляски с самыми известными сеошными штуками не помогут – можно сколько удобно менять туда-сюда тайтл, метаописание и заголовки, закупать ссылки на биржах, меняя долю анкорных и безанкорных, все равно результат будет близким к нулю.

Итак, со стратегией разобрались. Теперь перейдем к рассмотрению конкретных инструментов в рамках уже выбранной стратегии. Важно помнить, что в их использовании нужно следовать принципу Парето 80 на 20, то есть на используемых инструментах должна быть решена задача о ранце. Ориентация на решение этой оптимизационной задачи – еще один из основополагающих принципов проведения сео-аудита.

 

Технический базовый аудит: первостепенное

Для поиска ошибок, самым существенным образом влияющих на ранжирование сайта, стоит использовать несколько групп инструментов:

  1. Средства для веб-мастеров, предоставляемые самими поисковиками
  2. Сервисы, созданные крупными игроками рынка, осуществляющими связь между гигантами-поисковиками и владельцами отдельных сайтов
  3. Средства аналитики, предоставляемые поисковиками.

Мы рассмотрим, как использовать каждую из этих групп инструментов, в порядке уменьшения (в среднем) полезной для целей аудита информации, которую можно извлечь из этих инструментов.

 

Аудит средствами третьих производителей

Есть специальные сервисы, которые помогают в автоматическом режиме сделать часть важных работ по техническому анализу сайта. Такие сервисы запускают на сайт собственных «пауков», то есть изучают сайт своими краулерами. В результате такого анализа можно получить следующую информацию:

  1. Тайтлы отсутствующие, дублирующиеся
  2. Отсутствие заголовка (тег h1).
  3. Страницы, закрытые от индексации (мета-тегом noindex или в robots.txt)
  4. Проверка на вирусы
  5. Проверка на некоторые фильтры

Рассмотрим более подробно, как анализ можно произвести сервисом SerpStat. Для начала нам нужно нужный домен добавить в список проектов и задать настройки аудита. Самым часто используемым параметром является число сканируемых страниц. Затем нажимаем кнопку «начать аудит», и специализированные краулеры начнут обход сайт страница за страницей, анализируя каждую из них на предмет технических ошибок.

Запуск технического SEO-аудита в SerpStat.Com

После анализа будет представлен перечень найденных ошибок, проранжированных по степени важности их для оптимизации. Не всегда с этим ранжированием стоит соглашаться. Например, слишком длинные тайтлы я бы отнес не ко второй группе важности, а к третьей, но это все уже нюансы. Грубо говоря, если мы не выделяем отдельно базовую ступень аудита и следующую за ней, то представленное ранжирование ошибок представляется в высшей степени адекватным. Но если из продуктовых соображений нам нужно выделить базовый аудит, нам приходится вводить более гранулированное ранжирование, а в некоторых случаях и менять ранги местами.

Итак, в числе прочих сервис нам найдет ошибки отсутствия и дублирования тайлов. Это очень грубая ошибка для ранжирования многих страниц оказывается фатальной.

Поиск отсутствующих и дублирующихся тайтлов сервисом SerpStat.Com

 

На каждой странице, во-первых, должен быть тайтл, во-вторых, только один и, в-третьих, он должен быть уникальным в пределах всего сайта.

В противном случае страница или не будет проиндексирована вообще, или будет признана дублем и поэтому помещена во вторичный индекс. То есть, в любом случае такая страница не будет участвовать в ранжировании.

 

Использование сервисов для веб-мастеров от поисковиков

Следующим этапом первостепенных проверок в рамках аудита технической SEO-оптимизации является использование специальных сервисов для веб-мастеров от поисковиков – Google Search Console и Яндекс.ВебМастер. Их использование позволяет выявить следующие моменты:

  • Наличие автоматически наложенных фильтров поисковиков.
  • Наличие ручных санкций.
  • Много ли страниц выпадает из индекса и почему?
  • Что происходило раньше? Не отдавал ли сервер ошибки (500-е), не было ли других массовых ошибок (300-е, 400-е).
  • Нет ли фильтрации именно роботов поисковиков?
  • Ещё проверка на вирусы в дополнение сервисам третьих производителей.
  • Какие параметры урла поисковики считают за параметры пагинации?
  • Какие параметры урла поисковики считают за параметры сортировки и отображения?

Поясним некоторые из этих пунктов. Некоторые фильтры поисковых систем – как ручные, так и автоматически налагаемые – можно диагностировать глядя на сайт «извне» сервисами третьих производителей. Но в некоторых случаях факт наложения фильтра сложно идентифицировать по изменению как позиций, так и видимости в поисковой выдаче, а также по другим косвенным признакам, таким как обнуление ТИЦ и некоторые другие. В этом случае узнать о фильтре можно только из информации в ВебМастере.

Еще полезно отследить соотношение числа страниц в индексе и число посещаемых краулером страниц: это позволяет выявить причины иногда очень нерационального использования краулингового бюджета.

Кроме того, в вебмастерах видно, что происходило ранее. Допустим, сейчас на момент аудита c сайтом все нормально в техническом отношении, но позиции и трафик – ужасные. В чем может быть дело? Одна из возможных причин, что на сайте в течение долгого времени было очень много технических ошибок и, как следствие, низкий авторитет был у сайта в глазах поисковиков. А когда владельцы бизнеса спохватились, нерадивые технари быстро исправили косяки, поэтому на момент аудита причины бедственного положения с трафиком могут быть неясны. В этом случае вебмастера позволяют увидеть техническую ситуацию ретроспективно и разобраться в причинах.

Также в вебмастерах можно посмотреть, как сайт откликается именно на «пауков» поисковиков. Иногда бывают такие ситуации, когда сайт прекрасно доступен для пользователей интернета, но не доступен для роботов. В вебмастере можно «поймать» такую ситуацию. Как такое может случиться? Иногда админы сайта могут специально запретить краулерам поисковика посещать сайт, а потом забыть опять обратно разрешить. Несмотря на курьезность ситуации, она встречается не так уж и редко.

В вебмастерах также можно увидеть дополнительную информацию о наличии / отсутствии вирусов на сайте. Да, это можно проверить и глядя на сайт извне, но такая дополнительная проверка от поисковиков все равно полезна. В вебмастере Гугла можно увидеть, какие параметры урла он относит к параметрам какого типа. И, соответственно, надо ли, по его мнению, индексировать страницы различающиеся значениями этого параметра. Важно посмотреть, смог ли Гугл распознать параметры пагинации (разбивки на страницы), сортировки и отображения. Страницы, отличающиеся значением первого параметра, нужно индексировать, последующих – нет.

 

Использование Метрики и Google.Analytics

Есть несколько моментов в техническом seo-аудите, о которых мы можем достоверно узнать только из систем внутренней статистики сайта – Яндекс.Метрики и Google.Analytics. Это, в числе прочего:

  • Есть ли связь ссылочного взрыва и трафика с поисковиков.
  • Есть ли связь ссылочного взрыва и переходов по ссылкам.

Факт ссылочного взрыва легко увидеть внешними средствами аналитики, например, тем же SerpStat-ом. А вот проинтерпретировать его без доступа ко внутренней статистике уже сложнее. Привело ли это резкое увеличение числа ссылок к заметному роста трафика? Есть ли основания полагать, что все-таки еще приведет к такому заметному росту трафика? Или, быть может, этот резкий скачок стал причиной попадания сайта под фильтр? Ответы на эти вопросы являются стратегически важными при проектировании дальнейшей ссылочной стратегии: надо все-таки понять, ощутить на практике владельцу сайта, работает ли конкретно данный тип ссылок на конкретно его сайте или нет?

Увидеть зависимость между ссылочным ростом и ростом трафика внешними средствами сложно, так как ими более-менее достоверно можно отследить лишь видимость ресурса в поисковой выдаче. Теоретически последняя хорошо коррелирует с трафиком, но на практике не всегда можно пользоваться этой зависимостью для того, чтобы делать выводы: расчет численного значения видимости зависит от многих факторов (прежде всего, от базы анализируемых ключевых фраз, которая регулярно как чистится, так и дополняется). Поэтому численное значение видимости на деле часто «прыгает». Содержательной интерпретации неплохо поддается лишь ряд идущих друг за другом значений в отсутствии пересчета базы. Напротив, сравнивать между собой значения видимости сейчас и, скажем, полгода назад уже «небезопасно», так как за это время могло произойти несколько пересчетов, а также чисток, дополнений базы, и поэтому значения уже нельзя между собой сравнивать.

Кроме того, даже если предположить, что мы анализируем отрезок времени, когда видимость в поисковой выдаче и трафик хорошо коррелируют друг с другом, нам все равно сложно понять, чем вызвано существенное изменение видимости сайта – сезонными колебаниями или «работающими» ссылками. Напротив, средства внутренней аналитики хорошо позволяют учесть сезонные колебания трафика. Из всех этих рассуждений следует, что по-настоящему корректно проинтерпретировать результаты видимого внешними средствами ссылочного взрыва мы можем лишь имея доступ к внутренней статистике сайта. Анализ данных Метрики и Google.Analytics позволит нам увидеть ситуацию в том же сезоне, и понять, есть ли уже сейчас изменения, к которым привело появление новых ссылок.

Но допустим, мы выяснили, что на данный момент результатов по трафику нет, как нам понять, будут ли они в дальнейшем? Для этого нам нужно понять, какие ссылки работают, а какие нет. Если кратко, то по ссылкам должны идти переходы настоящих, «живых» пользователей, это необходимое (но не всегда достаточное) условие того, чтобы ссылка работала. Соответственно, можно посмотреть, сколько переходов с доменов с новыми ссылками. Если в течение длительного времени (в течение нескольких месяцев) их нет, то значит, что ссылки размещены в местах веба, которые никто особо не посещает и/или в текстах, которые никому особо не интересны. Такие ссылки работать не будут, и ссылочный взрыв этому не поможет.

Есть и другие случаи, когда использование внутренней статистики необходимо при проведении аудита.

 

Технический базовый аудит: дополнительное

Есть такие проверки в рамках базового технического аудита, которые, с одной стороны, исключить из базового «рука не поднимается», но они не приносят какого-то прорывного результата, с другой стороны. Такие проверки мы отнесем к дополнительным. Кроме прочего, к ним относятся:

  • Несколько h1 на одной странице
  • Отсутствует метаописание
  • Не 301-е редиректы
  • iframe
  • flash
  • Мобильная адаптация
  • Редирект с www и https
  • Отсутствие ssl-сертификата

Известно, что на каждой веб-странице должен быть тег заголовка h1 и должен быть только один. Соответственно, если тег h1 отсутствует, это критичная проблема, а если их на странице несколько, то проблема тоже есть, но в этом случае её критичность ниже. Существуют разные точки зрения на множественный тег заголовка на странице. Одни считают, что стандарт html5 это в принципе допускает. Другие считают, что это недопустимо, и приводит к существенному снижению ранжирования. Третьи, что это не так принципиально, так как поисковики примут во внимание только первый тег. Моя позиция по данному вопросу в некотором смысле промежуточная: скорее всего, поисковики будут ориентироваться на какой-то один из теговой, вероятнее всего, первый, но наличие множественности тега все равно заметят, и это чуть-чуть ухудшит ранжирование. То есть, подправить это, безусловно стоит, но если было замечено, что такая ошибка есть, и она на странице довольно давно, то это не катастрофа.

Отсутствие метаописания на странице (мета-тега description) находится примерно в той же «весовой категории». Исправить это, конечно, надо, особенно потому, что метаописание очень часто (особенно Гуглом) берется за основу формирования сниппета и, следовательно, влияет на конверсию страницы. Но после исправления не стоит ждать, что появившееся метаописание резко увеличит результаты по трафику и позициям.

Рассмотрим другую часто встречающуюся ошибку, когда на сайте вместо 301-х редиректов используются какие-то другие редиректы (302, 303 и т.д.) Идея в том, что 301-й редирект специально предназначен для передачи «веса» страницы-донора странице-акцептору. При всех же остальных видах редиректов такой передачи не происходит, поэтому снижается ссылочная связанность сайта, и это может сказаться значимо на ранжировании страниц, на которых ведет редирект. Поэтому это, конечно, нужно подправить.

Следующие два пункта, которые нужно рассмотреть, это наличие тега iframe и использование на сайте технологии flash в отношении значимого контента. В некоторых случаях использование iframe оправдано и даже необходимо, но иногда его используют избыточно, а надо знать, что контент внутри этого тега не индексируется. Более того, использование слишком сложных конструкций внутри тега iframe (например, подгрузка скриптом другого кода, содержащего iframe или еще код, подгружающий третий) может привести к бану сайта поисковиками, так как они могут счесть такие ничем не оправданно сложные схемы загрузки частей веб-страницы попыткой их обмануть и представить пользователю и роботу поисковика в итоге разный контент. Содержимое flash-а также не индексируется, так что хоть сколько-нибудь ценный контент из него стоит перенести в html.

Роль мобильной адаптации
сайта, на мой взгляд, несколько преувеличена. Да, конверсию сайта с мобильного она увеличивает, а вот насколько она влияет на ранжирование главным образом десктопной версии – это большой вопрос. На десктопную, вероятнее всего, мало влияет, на мобильную влияет, но тоже не слишком радикально. Поэтому здесь разумным представляется предложить отталкиваться от конверсии: если у вас контентный сайт, и он конвертирует посетителей даже без мобильной адаптации, скорее всего, добавление адаптивной верстки изменит ранжирование не значительно. И наоборот, если у вас интернет-магазин, и пользователи, заходящие на сайт с мобильного сразу убегают с него, так как ничего разглядеть невозможно, то адаптивная верстка может спасти ситуацию как в отношении конверсии, так и заметно улучшить ранжирование.

У сайта должно быть одно главное зеркало, и со всех остальных зеркал должен идти 301-й редирект на это главное зеркало. Но это правило частенько не соблюдается, чаще всего это касается префикса www и указания на защищенный протокол https. В итоге сайт часто имеет 4 равноправных, с точки зрения поисковика, версии – с www и без www, c https и без https. И сила всего сайта «распыляется» между этими четырьмя зеркалами. Для того, чтобы этого «распыления» не происходило, нужно из четырех зеркал выделить одно главное (лучше всего взять вариант с https и без www) и со всех оставшихся трех вариантов организовать 301-й редирект на это главное зеркало.

Кроме того, отдельный повод задуматься – это отсутствие вообще у сайта доступности по защищенному протоколу. Здесь тоже все не так однозначно. Если у сайта нет ssl-сертификата, и следовательно, он не доступен по протоколу https, то само по себе это еще ни о чём не говорит. Есть, конечно, информация о том, что «незащищенным» сайтам поисковики меньше доверяют и поэтому они ранжируются хуже, но моим наблюдениям это зависит от типа сайта. Есть много кейсов, где показано, что переход на https не привел ни к какому улучшению трафика, а в Яндексе это наоборот приводит к временному снижению трафика (пока автоматическая склейка зеркал не завершится). Поэтому защищенный протокол сам по себе не панацея. Но его обязательно стоит использовать, если сайт редактирует большая и территориально распределенная команда, а уж особенно, если у вас UGC-сайт (User-generated content). Так как если хотя один из пользователей захочет зайти на сайт под своим паролем из кафешки, для незащищенного сайта пароль может быть перехвачен и, соответственно, сайт будет скомпрометирован. И наоборот, если контент сайта редактирует один человек, и он же владелец, и он не заходит под своим аккаунтом через публичный вай-фай, то он может быть пока спокоен.

 
 
Сергей Салтыков – SEO-консультант
 
Сергей Салтыков – консультант по SEO, SEO-практик, экс-доцент НИУ ВШЭ. Автор прикладных и научных статей по SEO.

 

 

 

 
 
 
Основные статьи

Как продвинуть сайт самому

SEO-алгоритмы

SEO-стратегии

SEO

SEO-аудит

SEO-консультации

Курсы по SEO

SEO-портфолио и отзывы

SEO-услуги и цены

Кластеризация семантики сайта

 

Статьи на блоге Devaka.Ru

Google-определения

Постинг в Google+

Метрика опасности ссылок

 

Шпрингер: научные статьи

Typology of SEO-Strategies

 
 
 

Нужна помощь? Закажите seo-консультацию и seo-аудит по почте sergey.saltykov@gmail.com или в соцсетях – vk.com/sergiustoday и fb.com/sergey.saltykov.75 – прямо сейчас!

 
 2013 – 2017 © Сергей Салтыков   Условия использования  Соглашение о безопасности  Innovations