Pull to refresh

Как оставаться в ТОПе при изменениях поисковых алгоритмов (руководство для начинающих сеошников)

Reading time 8 min
Views 7.8K
После каждого обновления алгоритма поисковых систем часть SEO-оптимизаторов говорит, что оно было неудачным. Существует более 200 факторов ранжирования сайтов. Разумно предположить, что и возможных обновлений достаточно много. В этой статье мы расскажем, как работают поисковые алгоритмы, почему они постоянно меняются и как на это реагировать.

Что такое поисковые алгоритмы?


В их основе — формулы, которые определяют положение сайта в результатах поиска по определенному запросу. Они направлены на отбор веб-страниц, наиболее точно соответствующих введенной пользователем фразе. При этом они стараются не брать в расчет нерелевантные сайты и те, которые используют различные виды спама.

Поисковые системы смотрят на тексты сайта, в частности, на наличие в них ключевых слов. Контент — один из наиболее важных факторов при принятии решения о положении сайта в рейтинге. У Яндекса и Google разные алгоритмы, а потому результаты поисковой выдачи по одной и той же фразе у них могут отличаться. И все же основные правила ранжирования, заложенные в алгоритм, у них одинаковы. Например, они оба следят за оригинальностью контента.

Изначально, когда в Интернете было зарегистрировано мало сайтов, поисковики учитывали совсем небольшое количество параметров: заголовки, ключевые слова, размер текстов и др. Но вскоре владельцы веб-ресурсов стали активно использовать недобросовестные методы продвижения. Это и заставило поисковики развивать алгоритмы в сторону отслеживания спама. В результате сейчас часто именно спамеры с их все новыми и новыми методами диктуют тенденции развития поисковых алгоритмов.

Основная сложность в SEO-оптимизации сайта состоит в том, что Яндекс и Google не говорят о принципах их работы. Таким образом мы имеем лишь примерное представление о параметрах, которые они учитывают. Эти сведения основаны на выводах SEO-специалистов, постоянно пытающихся определить, что же влияет на рейтинг сайтов.

Например, стало известно, что поисковики определяют наиболее посещаемые страницы сайта и подсчитывают время, которое люди проводят на них. Системы исходят из того, что если пользователь находится на странице долго, то опубликованная информация полезна для него.

Сравнение алгоритмов Google и Яндекс


Алгоритмы Google первыми стали учитывать количество ссылок на других ресурсах, ведущих на определенный сайт. Нововведение позволило использовать естественное развитие Интернета для определения качества сайтов и их релевантности. Это было одной из причин, почему Google стал самым популярным поисковиком в мире.

Далее он стал учитывать актуальность информации и ее отношение к определенному местоположению. С 2001 года система научилась отличать информационные сайты от продающих. Тогда же она стала придавать большее значение ссылкам, размещенным на более качественных и популярных ресурсах.

В 2003 году Google начал обращать внимание на слишком частое употребление в текстах ключевых фраз. Данное нововведение значительно усложнило работу SEO-оптимизаторов и заставило их искать новые методы продвижения.

Вскоре Google стал учитывать и качество ранжируемых сайтов.

Яндекс рассказывает о принципе работы своих алгоритмов больше, чем Google. С 2007 года он стал публиковать информацию об изменениях в своем блоге.

Например, в 2008 году компания сообщила о том, что поисковик стал понимать сокращения и научился переводить слова в запросе. Тогда же Яндекс начал работу с иностранными ресурсами, в результате чего русскоязычным сайтам стало сложнее занимать высокие позиции по запросам с иностранными словами.



В том же году ответы на некоторые запросы пользователи начали получать прямо на страницах с результатами. Например, чтобы узнать погоду, не обязательно стало переходить на сайт.



Яндекс обратил внимание и на оригинальность текстов.

Далее поисковик начал более качественно обрабатывать запросы с минус-словами, понимать, когда пользователь допустил грамматическую ошибку. Кроме того, SEO-специалисты сделали вывод, что Яндекс стал отдавать предпочтение более старым сайтам, поднимая их рейтинг.

Виды изменений в алгоритмах


В большинстве случаев, когда мы говорим об обновлениях, то имеем в виду изменения в основном алгоритме поисковика. Он состоит из традиционных факторов ранжирования, а также алгоритмов, предназначенных для отслеживания и удаления спама.

Поэтому, когда происходит изменение алгоритма, а такое случается почти ежедневно, поисковик может вносить сразу много коррективов. А они способны серьезно повлиять на рейтинг вашего сайта на странице выдачи.

Обновления Google призваны помочь пользователям. Однако это не значит, что они помогают владельцам сайтов.

Существует два вида обновлений. Одни — касаются UX, то есть удобства пользования сайтом: реклама, всплывающие окна, скорость загрузки и т. д. Сюда относятся, например, обновления о ловле спама и оценке удобства использования мобильной версии сайта.

Другие обновления необходимы для оценки контента сайта: насколько он ценен для пользователя. Низкокачественный контент имеет следующие признаки:

  • Один и тот же текст повторяется несколько раз на странице.
  • Не помогает пользователю найти ответ на запрос.
  • Обманным образом склоняет посетителя сайта купить товар.
  • Часто содержит неправдивую информацию.
  • Не является достоверным.
  • Отсутствует ясная структура: выделение разделов и абзацев.
  • Содержание не соответствует интересам целевой аудитории сайта.
  • У него низкая уникальность.

Можно сказать, что часто обновления касаются качества контента, потому что проблемы с восприятием информации тесно связаны с ее содержанием.

Требования к сайтам довольно обширны, что и вызывает недовольство SEO-оптимизаторов. Некоторые считают, что Google отстаивает власть своего бренда и предвзято относится к небольшим сайтам.

Как воспринимать обновления поисковиков?


Для начала определите, способствуют они повышению или понижению вашего рейтинга. Если рейтинг упал, это не могло произойти просто так: значит что-то сделано неправильно.

Многие алгоритмы направлены на отслеживание спама. И все же возможно, что сайт теряет позиции, при этом не делая ничего плохого. Тогда причина обычно заключается в смене критериев отбора сайтов для ТОПа. Другими словами, вместо понижения рейтинга сайта за какие-то ошибки алгоритм может продвигать другие ресурсы, которые делают что-то лучше.

Следовательно, вам необходимо постоянно анализировать, почему сайты обходят вас. Например, если пользователь вводит информационный запрос, а ваш сайт является коммерческим, то страница с информационным контентом будет стоять выше вашего сайта.



Вот некоторые причины, почему конкуренты могут обгонять вас:

  • Более точное соответствие запросу пользователя.
  • Большое количество ссылок на данную страницу, размещенных на других ресурсах.
  • Недавнее обновление страницы, в результате чего она стала более актуальной и ценной.

В целом, не стоит волноваться, если ваш сайт по-прежнему остается на первой странице результатов поиска. Но вот если он оказался на второй или дальше, это говорит о наличии серьезных проблем. Иногда причина в SEO-изменениях, которые вы осуществили недавно.

В других случаях понижение рейтинга может быть связано с введением нового фактора ранжирования. Важно знать разницу между нововведениями, которые способствуют продвижению других страниц, и нововведениями, которые ведут к потере позиций вашего сайта. Возможно, ваша стратегия SEO-продвижения нуждается в обновлении.

Ошибаются ли поисковые алгоритмы?

Да, иногда алгоритм срабатывает неправильно. Но это случается очень редко.

Ошибки алгоритмов обычно видны в длинных поисковых запросах. Изучите их результаты, чтобы лучше понять нововведения в алгоритме. Ошибкой можно считать случаи, когда страница с результатами явно не соответствует запросу.

Конечно, сначала вам придет в голову наиболее очевидное объяснение, но оно не всегда верно. Если вы решили, что поисковик отдает предпочтение определенным брендам или проблема заключается исключительно в UX сайта, то копните немного глубже. Возможно, вы найдете объяснение получше.

Как не зависеть от изменений алгоритмов?


Не так-то просто разобраться в принципах работы алгоритмов, а для отслеживания их изменений надо быть постоянно включенным в информационное поле. Однако не каждая компания имеет специалиста по SEO, часто задача продвижения в поисковиках отдается на фриланс. Тогда необходимо настроить SEO таким образом, чтобы позиция сайта оставалась стабильно высокой независимо от нововведений поисковиков.

Вот несколько способов сделать это.

1. Грамотно используйте продвижение с помощью ссылок.

Основная цель нововведений Яндекса и Google — это защита от спама. Например, раньше SEO-алгоритмы поднимали выше сайты, на которые было больше всего ссылок на других веб-страницах. В результате появился такой вид спама, как комментирование блогов. Фейковые записи обычно начинаются с нелепого штампового приветствия вроде “Какой прекрасный и познавательный у тебя блог” и заканчиваются ссылкой на страницу, содержание которой никак не соотносится с этим блогом.

В итоге поисковики стали активно вводить факторы ранжирования, позволяющие учитывать этот вид спама. Теперь ссылки на ваш сайт по-прежнему важны, но явно неестественные комментарии могут повредить вашему SEO-продвижению.

2. Взаимодействуйте с аудиторией.

Общение с потенциальными покупателями не только поможет вашему SEO, но и напрямую повысит продажи. Под взаимодействием подразумевается реклама, PR, SMM и другие способы “зацепить” пользователей в Интернете.

Естественное распространение информации о вашем бренде ведет к росту ссылок и переходов на ваш сайт. Таким образом, используя разные методы продвижения вы выигрываете дважды: с точки зрения SEO и прямых продаж.

3. Четко определите цели своего SEO.

Часто представители компаний считают, что продвижение в поисковиках нужно для того, чтобы занимать высокие позиции по запросам из одного слова, вроде “адвокат”, “стоматология”, “суши”. Однако это не так. Пользователи все чаще вводят длинные поисковые фразы, например: “недорогая кофейня в самаре”. К тому же, поисковики выдают подсказки, которые могут сделать итоговый запрос еще длиннее.



Важно занимать высокие позиции именно по таким узким низко- и среднечастотным запросам.

Частые ошибки в SEO


Основной принцип работы с SEO, на которое не повлияют изменения алгоритмов, в том, чтобы ориентироваться не на увеличение количества переходов на сайт, а на привлечение реальных клиентов. Именно поэтому развитие SEO не должно сводиться к одним лишь кнопкам и текстам, написанным специально под алгоритмы. Конечно, без этого нельзя обойтись, однако такие элементы бессмысленны, если они не приводят покупателей.

SEO-оптимизаторы должны не только подбирать ключевые фразы для каждой отдельной страницы сайта и учитывать подсказки, которые предлагает пользователям поисковик, но и понимать конкурентные преимущества компании, которые необходимо использовать при конструировании и наполнении сайта.

Одной из популярных ошибок, которую допускают SEO-специалисты является подбор ключевых слов вручную, без использования специальных программ. В результате они пропускают некоторые ценные запросы и, в то же время, оставляют неэффективные. Это, конечно, все равно улучшает позиции сайта, но незначительно.

Повысить результативность и скорость сбора семантического ядра может использование автоматизированных сервисов. С их помощью формирование процесс не займет больше двух минут. Оптимизатору останется лишь убедиться, что все запросы подходят для целей компании.

К таким программам относятся, например, SEMrush и Key Collector. Эти сервисы платные — доступ к ним предоставляется на срок от месяца.

Второй распространенной ошибкой является неудобная для пользователя структура сайта. Например, может быть недостаточное количество фильтров, тегов и подкатегорий. Это сказывается на удобстве использования поиска по товарам. Когда процесс слишком сложный для пользователя, то ваш потенциальный клиент, скорее всего, уйдет на другой сайт.

Так, если в вашем онлайн-магазине выложено двести пар носков, то не стоит все их добавлять в одну категорию “Носки” без возможности отфильтровать. Не надо заставлять пользователей долго прокручивать весь ваш ассортимент. Намного удобнее для них будет наличие отдельной страницы для узкоспециализированных запросов. Например, поисковой фразе “новогодние носки 36 размер” должна соответствовать страница с несколькими подходящими парами.



Многие сайты уже используют этот прием, и пользователи привыкли находить максимально подробный и удобный ответ на свой запрос. Сейчас люди быстро понимают, когда структура сайта плохо продумана.

Выводы


Хотя и кажется, что поисковики, ежедневно изменяя свои алгоритмы, стараются сделать все, чтобы усложнить жизни SEO-специалистов, это не так. Изменения, по большей части, объясняются борьбой со спамом, а значит помогают сайтам, продвигаемым с использованием честных методов. Нововведения также направлены на повышение рейтинга качественных сайтов, что является отличным поводом для вас становиться лучше.

Вне зависимости от изменений в основе алгоритмов всегда лежат одни и те же принципы. Поэтому качественно настроив SEO один раз, можно почти забыть о постоянных нововведениях.
Tags:
Hubs:
+2
Comments 2
Comments Comments 2

Articles