@blogopoisk read-only
Пользователь
27 января в 13:48

Разработка → Десять популярных SEO – мифов о продвижении в Google

Привет, Хабрахабр!

При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.


1. Существование «Песочницы»


Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.

Webeffector в своей Wiki энциклопедии написал:
«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:
«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google


Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google


Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.

Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование


Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев[1].

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:
«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования.[2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes[3].

5. До первой звезды нельзя


Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.
«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе


Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу...». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO


В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.

На этот вопрос Gary Illyes дал отрицательный ответ.

8. Вернись, я всё прощу


Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.

Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.

Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:
«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».

9. Я всё отклонил


В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».

Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.

Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.

Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.

Читаем документацию:
Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.

10. Отклонение ссылок и Search Console


Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».

Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».

Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.

Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.

Примечания


1. searchengines.ru. Поисковые системы. Google не использует в ранжировании социальные и поведенческие сигналы.
2. @SeoTelegraph. Twitter журнал о SEO. Твит от 12 авг. 2015.
3. Блоgгер. Поисковая оптимизация — Как Google определяет качество контента?
@blogopoisk
карма
5,0
рейтинг 0,0
Пользователь
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Спецпроект

Самое читаемое Разработка

Комментарии (31)

  • 0
    А разве поисковики не выпускают списки рекомендаций и требований к сайтам? Что негативно влияет на позицию сайта, а что негативно, а за что и вовсе забанить могут. Наверняка же можно вбить урл своего сайта и узнать, что по его поводу думает поисковик.
    Или это какие-то секретные данные?
    • 0
      Не выпускает. У поисковиков есть справочная информация на этот счёт. Например у Яндекса тут yandex.ru/support/webmaster/for-webmasters/contents.xml

      Но программисты не читают и делают так как им проще.

      Автоматические сервисы для анализа конечно есть но они сторонние и реально полезной информации дают не много. (Да и всё, что дают можно самостоятельно проверить методом перебора при обладании определённых знаний).
    • +4
      Поисковики никогда четко не пишут своих критерий оценки сайтов т.к. это мгновенно приводит к злоупотреблению со стороны СЕО оптимизаторов.
      • 0
        Добрый день, nooze. Абсолютно с вами согласен. Дело в том, что критерии оценки, нюансы работы алгоритмов — это коммерческая тайна. Если её раскрыть, на второй день появятся тысячи новых подобных поисковиков.
        Но не всё так грустно. Есть «замочная скважина» в которую можно посмотреть. Я имею в виду патенты Google.
        Конечно никто вам не подтвердит, что именно этот патент применяется на практике, но проанализировав его содержание и сравнив с доступной вам статистикой можно сделать выводы.
        С уважением,
        • 0
          «тысячи» поисковиков вряд ли появятся, т.к. не секрет что поисковик это не только алгоритм ранжирования, а еще и огромные серверные мощности, обслуживающий и разрабатывающий персонал и маркетинговые издержки. Даже если гугл раскроет свой движок целиком — появится разве что пару десятков «гуглов» с многократно меньшим индексом и плохой экосистемой. Даже с многомиллионными инвистициями особо ничего не сделать.

          А вот то что на все факты ранжирования накинуться СЕОшники это факт — стоит гуглу сказать что «оптимальным он считает наличие на странице 3 видео, 6 картинок, текста с вхождением стольких то слов и длинной столько-то символов» как через неделю 90% рунета будет состоять из страниц-близнецов полностью подогнанных под идеальные требования поисковой системы, наплевав на контент и юзабилити для реальных посетителей.
    • 0
      У Google действительно есть рекомендации, учебные центры, справочные материалы и онлайн-инструмены, которыми могут пользоваться веб-мастера.
      Часть информации действительно засекречена. Какие-то нюансы, можно узнать от спикеров Google, которые перечислены в статье.
      С уважением,
  • +1
    Вот интересно, если для какого-то rising start-up (конкурирующего) умышленно закупить кучу ссылок с целью утопить его в поисковиках? Хозяин сайта не сможет такие ссылки удалить, так как не размещал их, а Гугл не будет возвращать позиции сайту пока ссылки не удалены.
    • НЛО прилетело и опубликовало эту надпись здесь
      • +1
        На официальном форуме были такие утверждения. Одно время мода прямо появилась валить свои недачи на хрумер и конкурентов. В предоставленных примерах закупленные ссылки конкурентами оказались некчёмными и не на что не влияющими, то есть вообще мимо кассы, а люди потратили дофига времени на разбор этих примеров. Поскольку за два года никто не смог ни одного нормального примера привести, что вот мол смотрите, у меня крутые покупные ссылки, это не мои, я схватил пингвина, гуглеры перестали реагировать на подобные эпистолы. Начинаешь ковырять такой сайт, оказывается, что и сам он себе достаточно покупал, контент уг, техчасть хромает и всё в таком духе. Вот довольно примитивная матчасть на пальцах, почему невероятно трудно завалить конкурента. Есть куда более действенные методы, чем сотрясание воздухов.
        Я даже песню слышал, что в Форбсе ссылку конкурент купил. Но когда долго ручные меры не снимают, клиент начинает петь соловьём и оформлять явку с повинной задним числом :-). Это неизбежность, не все рождаются партизанами. А вот склонность к самообману — очень частая черта характера у сеошников.
        Но чтобы демагогия не оставалась демагогией, есть одно простое действие. Приходим на форум и пишем: «вот сайт, конкуренты накупили ссылок, чё делать». Гуглеры вообще будут счастливы, если кто принесёт хоть один настоящий пример, а не фейки.
        Как-то так :-).
        • НЛО прилетело и опубликовало эту надпись здесь
          • +1
            контент уг и тд и тп — за это пингвин не накладывают. его накладывают только за ссылки. пора бы это уже знать.

            Пингвин — часть алгоритма определения кач-ва сайта. Его не накладывают :-). То, что сваливают на пингвин, резкое понижение, может оказаться запаздалой реоценкой сайта из-за слабого контента. Неправильно поставленный диагноз. Вот о чём речь.

            выбить сайт из топа хрумером — как 2 пальца. особенно если сайт относительно новый и не успел еще набрать траста. но даже старые сайты можно выбить из топа без больших проблем.

            Сэр, даже на серче начали аргументировать. Это из разряда, говорят, что кур доят? Я могу с таким же успехом утверждать, что в Яндекс набирают в Платоны сугубо афроамериканцев… разве нет?

            и да — какой такой форум гугла то? у гугла тех. поддержка невероятно тормозная.

            У Гугла нет техподдержки. Но есть люди, которые собирают баги. Вот что интересно Гуглу, а не нытьё «мой сайт упал, памагите». Приходите и докажите, что произошёл баг в оценке ссылочного. Я вот такие баги лично видел, но к прогону от конкурентов они, увы, не имеют отношения. Если нет желания, времени или нет сайта :-), о чём тогда можно говорить? Гуглеры проводят встречи. Спрашивают: «есть вопросы?» Это тот самый момент, когда вся бравада доказать, что Гугл плохой (кто вообще сказал, что он хороший?) куда-то улетучивается. Изначально надо исходить из принципа, что Магомет пойдёт к горе и окажется умнее своих соплеменников, героев слога и клавиатуры.

            платные ссылки и в качестве примера приводят сайт яндекс.каталога
            .
            Во-первых, ссылка из Яндекс Каталога в 99% случаев платная. Сможете помочь с бесплатным размещением? Есть варианты?
            Я считаю, что вот из-за таких каталогов и подобий, гс с приличным финансированием создаёт ситуацию под названием нечестная конкуренция. Никогда не поверю, что посетители сайта сами добавили сайт в каталог :-). Но Гугл, прислав пару примеров (и то только при ручных мерах), посмотрел на реакцию и больше к этой теме не возвращался.

            у вас мол платные ссылки и в качестве примера приводят сайт яндекс.каталога

            В пример приводится не ссылка Яндекс каталога, а то, что показывает сервис «друзей», например, Ахрефс или Мажестик и т.п. Они доступны всем, если нет коммерческого акка — не беда, можно попросить выгрузку, никто еще никогда не отказывал.
            • НЛО прилетело и опубликовало эту надпись здесь
              • +2
                Предложение начинается всегда с большой буквы.

                пингвин накладывают только за ссылки.
                по контенту накладывают панду.

                «Фильтра за неуникальные текста» и «наклали на меня фильтр» :-) в коллекцию. Прямо в духе сео-блогов 2010-2012.

                За неграмотность и отсутствие аргументации, кроме «ты дурак», незачёт. Без обид, но уважение к языку, хотя тоже ляпаю ошибок солидно, привито со школьной парты.
              • 0
                Flector, так ка на всякий случай, aldous прав :) Это каноническая точка зрения. На неё со всех остальных можно ставить 301-й редирект.
                • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

    Секрет или не секрет, но утверждение смелое.
    • НЛО прилетело и опубликовало эту надпись здесь
  • 0
    У вас JPEG.
  • +1
    Про отсутствие влияния ПФ и социгналов написали специально, что бы не мешать СЕО-специалистам подготовиться к ЕГЭ.
  • +1
    А кто такие John Mueller и Gary Illyes? Теперь буду давать ссылку на этот пост в ответ на очередные истерики по поводу 404.
    • +2
      Добрый день, Blumfontein.
      John Mueller и Gary Illyes — это сотрудники Google.
      В Рунете за информационное освещение отвечают А.Липатцев и М.Моева. В Буржунете (назовём это так) за это же отвечает John Mueller. Именно от этих людей можно узнать то, что не написано в Справке Google.
      С уважением,
  • 0
    Вот про песочницу — не верю. Без разницы, как это называть — «песочница» или «мы еще не собрали о сайте все данные», но факт — сайт набирает свой вес в поисковой выдаче минимум несколько месяцев.
    • +2
      но факт — сайт набирает свой вес в поисковой выдаче минимум несколько месяцев.


      Всё логично. Вино в первый день его разлива, еще не вино. Так и сайт.
      За счёт чего новому сайту на второй день существования набрать вес?
      • 0
        Можете провести эксперимент (я провёл его). Нашёл низкоконкурентную тематику, на сайте (1 неделя) написал «статью» в 4 строчки и одну 1 картинку, но точно под запрос, более расширенно описал эту ссылку в вк (благо эта сеть имеет большие шансы попасть в индекс) и Google+, который пропиарил более раскаченным аккаунтом. Вуаля, топ 10, а потом топ1. В данном случае сыграл точный ответ на запрос и быстрое предоставление сведений о сайте, которые сам сайт предоставить не может в силу возраста и отсутствия контента. То есть заработали внешние сигналы. Ну а топ, потому что конкуренция слабая и проиграет свежему адаптивному сайту. Разумеется, для каких-то серьёзных действий нужен явно не недельный сайт. Как сейчас практика показывает — от трёх месяцев. Раньше от полугода и года.
        • 0
          Разве это эксперимент? Где же двойной слепой метод?
          • 0
            При запуске сайта у владельца есть два варианта: сидеть на попе ровно и высиживать мифическую песочницу в ожиданиях, когда заработают основные ключи или действовать легальной атакой НЧ на альтернативные источники, индексируемые гуглом. Я предлагаю второе :-), и это до сих пор работает. Как говорят профи смм: качайте бренд и профили, пригодятся потом для пиара дальнейших проектов :-).

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.