Регистрация Вход
FAQ    ноября 20, 2017

Ответы на вопросы по SEO

В данном разделе представлены ответы на самые различные вопросы по SEO.

FAQ: Вопросы и ответы по SEO

Содержание: рассмотрены ответы на следующие вопросы по продвижению сайта в поисковой выдаче (кликните на вопросе, чтобы перейти непосредственно к ответу):

  1. Нужно и можно ли писать большие тексты под коммерческие запросы?
  2. Апдейта не было. Но позиции моего сайта всё равно «штормит». Как такое возможно?
  3. Сколько времени нужно чтобы выйти в топ поисковиков?
  4. Влияют ли поведенческие факторы из контекстной рекламы на органическое ранжирование?
  5. Позиции моего сайта в поиске изменились. Может быть так, что пришел асессор (оценщик) поисковика и «подвинул» мой сайт?
  6. Насколько хорошо вики-статьи Вконтакте масштабируются на сайт при необходимости?
  7. Какое количество разных между собой ключевиков можно использовать в одной статье?
  8. Сколько факторов ранжирования сайтов использует Яндекс?

 

 

Нужно и можно ли писать большие тексты под коммерческие запросы?

Можно и нужно. Долгое время считалось почему-то, что под так называемые «коммерческие запросы» не нужно писать большие, содержательные тексты, и не только не нужно, но и даже вредно.

Это в принципе было верно, но уже давно перестало быть таковым. До появления Матрикснета и аналогичных технологий Google, и уж тем более до внедрения нейронных сетей в поисковые системы, это было актуально: было общее понимание, что интенты (запросы) посетителей сайта различны, иногда им интересна информация, чтобы разобраться, а иногда они ищут конкретный товар и/или услугу, чтобы прямо сейчас их купить. И понятно, что веб-страница должна по-разному «обыгрывать» эти интенты. В первом случае на странице будет много информации и деталей и нюансов выбора этого товара. А во втором случае информации вроде бы должно быть минимум, а много удобства использования. И кажется, что это логично. Но если посмотреть в детали, то окажется, что все не так очевидно. 

Во-первых, каждый отдельно взятый запрос редко будет лишь одного типа – коммерческого или информационного. Интенты, скорее всего, будут смешиваться. Это происходит из-за того, что общество представляет собой сложноорганизованную систему разнокачественных страт. И у разных страт различные интересы. И эти разные интересы формируют разные интенты.

Поэтому одна и та же страница должна «обыгрывать» различные интенты, то есть удовлетворять интересам различных групп пользователей. Уже одно это говорит нам, что большие тексты возможны на страницах, ориентированных на коммерческие запросы. И это позволяет нам понять, почему анализ нейросетями приводит именно к такому результату, к которому приводит – показывает, что лонгриды на коммерческих запросах иногда работают очень хорошо.

Но несмотря на это долгое время считалось – вопреки всякой логике, – что большие тексты вредны для коммерческих страниц. Последовательное применение принципов SEO и истолкование результатов такого применения уже несколько лет как позволяло делать вывод, что лонгриды на коммерческих страницах работают. Но логика многим не указ.

Коротко: даже из общих соображений ясно (при должном использовании гипотетико-дедуктивного подхода), что лонгриды для коммерческих запросов могут быть эффективны, в том числе и для главных страниц сайта. С началом использования машинного обучения это стало ясно и поисковым роботам.

Можно зайти и с другой стороны. Насыщенный информацией текст на странице коммерческого запроса – это реализация последовательно применяемой энциклопедической seo-стратегии. Еще несколько лет назад она, несмотря на то, что была весьма эффективно применяема на практике, была уделом лишь немногих; большинство, которое идет на шаблонами, правильными с точки зрения некоторых авторитетов, а не за логикой, не применяла её, а зря. Теперь потихоньку реализация этой перспективной стратегии выходит в публичное пространство. И, надеюсь, сейчас после такого выхода в свет (но уже лет на пять позже аванграда) стратегию начнут успешного применять более массово. Проанализируем нижеследующее видео, записанное значимыми игроками публичного SEO-пространства.

 

«Как оказалось, такое можно применять не только для информационных запросов, но и для очень даже коммерческих, и причем использовать это для главных страниц сайта».

«Сайт, который обогнал с минимальным количеством ссылок, а у меня, поверьте, в этой тематике  очень много ссылок стоит на мой сайт. То есть я стоял в ТОП-1, а этот сайт стал с таким текстом за довольно-таки небольшой период сразу в топ».

«Суть такой главной страницы, чтобы раскрыть всю нишу. То есть она будет брать запросы, которые связаны с разделоми, с подразделами, с подподразделами. Если у вас уже есть созданные странички вы просто будете на них линковать».

Итак из приведённых цитат мы видим, что если страница раскрывает содержание ниши достаточно полно, то она имеет все шансы за относительно короткое время попасть в ТОП по коммерческому запросу. Это верно и для главных страниц. Самое важное – это полнота и глубина раскрытия тематик данной ниши.

 

Апдейта не было. Но позиции моего сайта всё равно «штормит». Как такое возможно?

Да, такое бывает. Причём весьма часто. Поисковую выдачу Яндекса обычно «перетряхивает» существенно больше, чем выдачу Google. Так уж сложилось. И это надо иметь в виду. Вот, например, здесь приводится такой вот кейс изменений serp-а в условии отсутствия как текстовых, так и ссылочных апдейтов Яндекса.

Изменения поисковой выдачи Яндекса при отсутствии апдейтов

 

Сколько времени нужно чтобы выйти в топ поисковиков?

Если запрос не является низкочастотным, то с 95% вероятностью можно утверждать, что за один год выйти в Топ-10 не получится. Среднее время выхода – примерно два с половиной года. Это утверждается в крупномасштабном исследовании, проведенном командой Ahrefs.com на базе анализа позиций по более чем 2 млн запросам.

Среднее время выхода на разные позиции в Топ-10

Среднее время выхода на разные позиции в Топ-10


Второе, что нужно ясно понимать относительно времени выхода страницы в ТОП, это то, что это время очень сильно зависит от частотности запроса, по которому сайт хочет выйти в ТОП. По низкочастотным запросам (особенно, если они не особенно конкурентные) подвинуться в первую дестяку можно буквально за пару недель или даже быстрее. По среднечастотным – за 3-6 месяцев, а по высокочастотным запросам – придется подождать почти три года.

Зависимость скорости выхода в ТОП-10 от частотности запроса

Зависимость скорости выхода в ТОП-10 от частотности запроса

 

И, в-третьих, зависит ли скорость раскрутки сайта от авторитетности домена? Анализ данных показывает, что зависит от не так, чтобы очень уж сильно. 

Зависимость скорости раскрутки от авторитетности домена

Зависимость скорости раскрутки от авторитетности домена

Надо помнить, что последний график верен лишь для 5,7% всех сайтов – для тех счастливцев, которым удалось вывести страницу в Топ-10 всего за один год. Подавляющему большинству, как мы помним, это не удается. Но для того, чтобы отразить типичный характер этой закономерности (зависимости от авторитетности сайта) этой выборки вполне достаточно. DR – Domain Rating (рейтинг домена); таким образом, синим отмечены высокорейтинговые домены, оранжевым – домены со средним рейтингом, а светло-серым – низкорейтинговые домены.

 

Влияют ли поведенческие факторы из контекстной рекламы на органическое ранжирование?

Нет, не влияют. По крайней мере, хоть сколько-нибудь доказательных свидетельств этому нет – ни экспериментальных, ни гипотетико-дедуктивных. Более того, зато есть весьма логичные и здравые рассуждения в пользу того, что такого влияния нет.

«Это миф. Попробую объяснить почему. Бытует мнение, что поиск может учитывать ПФ (поведенческие факторы) из контекста и применять их для ранжирования документов в органике. Однако качество поведенческих факторов из контекста во многом определяется не соответствием документа запросу, а настройками рекламной кампании. Поскольку качество настройки РК у всех разное, сравнивать ПФ между разными сайтами напрямую нельзя. Единственное, чем может контекст помочь напрямую – это улучшить индексацию страниц».

 

Позиции моего сайта в поиске изменились. Может быть так, что пришел асессор (оценщик) поисковика и «подвинул» мой сайт?

Нет, такого быть не может; винить конкретного человека в данном случае не стоит, а особенно подозревать превратное отношение именно к вашем сайту. Оценки асессоров используются только для целей машинного обучения, для ранжирования сайтов по реальным запросам уже используется единообразный подход. Вот официальная информация от Яндекса из их блога на Хабрахабре:

«Для каждого запроса они [асессоры] оценивают, насколько хорошо тот или иной документ отвечает на него. <...> Машинное обучение использует обучающую выборку, чтобы установить зависимость между порядком страниц для запроса, полученным исходя из их оценки людьми, и признаками этих страниц. Полученная функция используется для ранжирования по всем запросам, независимо от наличия по ним экспертных оценок».

Кроме того, в «таргет» для машинного обучения входят не только ассесорские оценки, ситуация несколько сложнее. По информации на февраль 2017 года:

«У нас достаточно сложный таргет, который комбинирует в себе много видов информации: и ассесорские оценки, и пользовательское поведение, и еще некоторые свойства сайтов, которые нам кажутся очень важным учитывать для того, чтобы поиск был лучше. И есть большая система, по которой выбирается способ комбинирования для идеальной метрики и, соответственно, для идеального таргета».

Вот еще подтверждение того, что ассесоры конкретную выдачу в продакшне напрямую не меняют:

 – Такие пожелания поднимать в поисковой выдаче правильные с чьей-то точки зрения ресурсы вообще реализуемы?

 – Вообще не реализуемы. У нас же машинное обучение, оно, как зеркало, отражает именно то, что хотят найти пользователи. Мы фанаты машинного обучения, мы вообще никогда не вмешиваемся в поиск «вручную».

Однако несмотря на отсутствие прямого вмешательства, в один и тот же момент времени по одному и тому же запросу разные пользователи могут видеть несколько разные поисковые выдачи, даже если они находятся в режиме неперсонализированного поиска. Делается это для A/B тестирования старой и новой формулы ранжирования:

«берутся два результата ранжирования, по старой (C) и по новой формуле (Н), и перемешиваются по очереди — примерно так же, как отбираются футбольные команды в дворовом футболе. Получаются два варианта «смеси»: С1, Н1, С2, Н2, ... и Н1, С1, Н2, С2, ... где С1 — первый URL по старой формуле, Н1 — первый URL по новой формуле, С2 — второй URL по старой формуле и так далее. Какая «смесь» демонстрируется пользователю, определяется случайно. А далее мы фактически имеем дело с голосованием пользователей за ту или иную систему ранжирования, о котором они сами не знают».

 

Насколько хорошо вики-статьи Вконтакте масштабируются на сайт при необходимости?

Вики-статьи Вконтакте при необходимости прекрасно масштабируются на сайт. Конфликтов из-за того, что два одинаковых текста размещены на разных ресурсах, не возникает ни в Яндексе, ни в Гугле при условии, что статьи ссылаются друг на друга.

То есть обычно бывает так. Создается вики-статья в паблике во Вконтакте, она через какое-то время выходит в топ. Затем при необходимости расширения веб-ресурсов с паблика на сайт создается статья на сайт, полностью аналогичная той, что представлена в вики-статье. Статьи ссылаются друг на друга. Через какое-то время статья на сайте тоже выходит в топ. Какое-то время (очень не долгое) они обе висят в топе, потом более сильная вытесняет более слабую. Если Вы правильно раскручиваете сайт, то статья на сайте плавно вытеснит вики-статью из поисковой выдачи, и никаких сложностей и санций со стороны поисковых машин не будет.

 
 

Какое количество разных между собой ключевиков можно использовать в одной статье?

Да сколько угодно, ограничений формальных нет, а вот сколько целесообразно на одной странице «обыгрывать» ключевых слов можно решить с помощью кластеризации запросов – если попали в один кластер, то на одной странице, если в разные, то на разных.

В доказательство этого тезиса приведем статистику, полученную в исследовании, проведенном командой ahrefs.com: оно показывает, что страницы-лидеры ранжируются по десяткам и сотням запросов, иногда даже больше тысячи. Причем чем авторитетней страница, тем – при прочих равных – по большому числу ключевых фраз будет ранжироваться в поиске успешная страница.

 Среднее число ключевиков, по которым видны страницы из ТОП-20

Медианное число ключевиков, по которым видны в поиске страницы из ТОП-20

Но ведь дыма без огня не бывает, правда? Почему же в некоторых кругах все-таки считается, что не стоит «затачивать» страницу под большое количество фраз? Что это может быть не только не полезным, но и даже опасным: грозит, в частности, попаданием под фильтры поисковиков. На это есть минимум две причины. Во-первых, полученные в эксперименте числа отражают вклад не только «главной», с точки зрения пользователя, семантики, но и фраз из длинного хвоста распределения, то есть низкочастотных, низкоконкурентных фраз. А во-вторых, – и это самое важное – многие неправильно «обыгрывают» фразы на странице, делают это слишком прямолинейно, топорно, без знания специфики предметной области. В итоге неестественность получившегося текста ловится довольно просто не только продвинутыми алгоритмами поисковых гигантов, но и достаточно простыми как для понимания, так и для использования метриками.

Например, очень часто неестественные веб-документы, особенно заточенные под так называемую LSI-семантику, являются «непроходными» по метрике YMW. Кроме того, исследование последствий Яндекс.Баден-Бадена показывает, что в неестественных текстах ключевые слова имеют тенденцию «сбиваться» в n-граммы (чаще всего биграммы и триграммы) гораздо чаще, чем в естественных. И это, возможно, и не бросается в глаза при первом прочтении, но легко определяется несложными скриптами. И чем больше ключевиков пытается нерадивый оптимизатор «запихнуть» на одну страницу, тем более неестественным получается текст. Поэтому и появилось практически оправданное эвристическое правило, что неспециалисту, неэнтузиасту своей темы не стоит употреблять много ключей на странице. И для таких нерадивых специалистов это действительно верно. Но если вам действительно есть что сказать в своей области читателям, если ваш контент действительно несет ценность пользователю, удовлетворяет его интент, то можете себя не ограничивать, а обыграть на странице столько фраз, сколько находится в одном кластере.

 

Сколько факторов ранжирования сайтов использует Яндекс?

По информации на 4 августа 2016 года, Яндекс использует примерно 1500 факторов (это видно на 14-й секунде 11-й минуты).

 
Сергей Салтыков – SEO-консультант
 
Сергей Салтыков – консультант по SEO, SEO-практик, экс-доцент НИУ ВШЭ. Автор прикладных и научных статей по SEO.

 

 

 

 
 
 
Основные статьи

Как продвинуть сайт самому

SEO-алгоритмы

SEO-стратегии

SEO

SEO-аудит

SEO-консультации

Курсы по SEO

SEO-портфолио и отзывы

SEO-услуги и цены

Кластеризация семантики сайта

 

Статьи на блоге Devaka.Ru

Google-определения

Постинг в Google+

Метрика опасности ссылок

 

Шпрингер: научные статьи

Typology of SEO-Strategies

 
 
 

Нужна помощь? Закажите seo-консультацию и seo-аудит по почте sergey.saltykov@gmail.com или в соцсетях – vk.com/sergiustoday и fb.com/sergey.saltykov.75 – прямо сейчас!

 
 2013 – 2017 © Сергей Салтыков   Условия использования  Соглашение о безопасности  Innovations