Pull to refresh

Про то, как хвост вилял соб@кой

Reading time2 min
Views509
Современные поисковые машины далеко продвинулись на своем поприще. Их сайты — лидеры глобальной сети по посещаемости, а капитализация компаний растет как на дрожжах. Кто как не они знают, какой сайт наиболее релевантен вашему запросу, анализируя его ТИЦ, тайтлы и прочие метатеги. Но за деревьями мы кажется упустили из виду лес. Мне как пользователю, фиолетово — какие там у ресурса ТИЦы-«шмицы». Я хочу получить в выдаче то, что ищу.

Однако найти что-то стоящее в последнее время становится все труднее. Интересно — почему? Да потому что мое понятие «релевантность» расходится с представлением поисковиков. На их взгляд наиболее релевантны сайты, которые их хозяева предварительно оптимизировали. Перед web-мастерами ставится куча условий и ограничений на то, как должен выглядеть сайт. Ведь у поисковиков есть мощный рычаг воздействия: в среднем по Рунету 30% трафика приходит с поисковиков, у некоторых проектов он доходит и до 90%.

Допустим, мы пытаемся сделать классный молодой стартап и… упираемся в первое же условие: сайт не должен быть молодым! Интересно, а кто решил, что чем старее сайт, тем он лучше? В обычной жизни все с точностью до наоборот: чем новее телефон/ноутбук/автомобиль, тем он лучше — таков принцип прогресса.

Далее:

— На продвигаемой странце обязательно должен быть СЕО-текст с ключевыми словами. Не беда, что текст этот не нужен абсолютно никому, и читает его только поисковый робот.

— Особым образом на сайте должна быть перелинковка, и даже расположение ссылок на странице продиктовано оптимизацией. Например, исключается применение скрытых ссылок в раскрывающемся меню — иначе могут прсто забанить.

— Фото/видео материалы не индексируются, так что на них вообще можно забить

— Флеш — боже вас упаси! И вообще, поменьше фантазии, побольше прагматизма.

В общем, если мы делаем интересный и современный сайт, а потом шаг за шагом начинаем его оптимизировать, то в конце концов получается убожество а-ля «девяностые» с кучей ненужного текста и дурацкими ссылками. Складывается впечатление, что вместо катализатора развития Интернета, поисковики превратились в его тормоз. Они как хвост, виляющий собакой, диктуют сайтам свои условия. Те в свою очередь, как хамелеоны, которые зеленеют на фоне листвы, превращаются в скучные, неудобные и режущие глаза наборы веб-страниц.

Есть ли другой путь из тупика? Безусловно. Это уход от традиционных алгоритмов поиска, которые водрузил Google в начале 2000-х на два столпа: «текст» и «ссылки». Но если на заре интернета веб-сайт и был по сути текстом в перемешку со ссылками, то сегодня он очевидно эволюционировал. Грамотные разрабтчики научились делать сайты и «для людей», и «для роботов» в одном флаконе. Но настоящим прорывом станет полный уход от текстово-ссылочных алгоритмов и замена их принципиально иными механизмами. Например, механизмом коллаборативной фильтрации: на мой запрос мне выдаются сайты, которые посещали пользователи, которые обычно посещают сайты такие же как и я, причем находятся там столько же времени, сколько и я. Есть еще ряд других перпективных возможностей, до которых еще не добралась рука СЕО-оптимизатора, и, возможно, они уже начинают использоваться. Во всяком случае у меня есть стойкое ощущение, что коллаборацию использует Google через Chrome, но делает он это как-то неактивно. Дождется этот Голиаф своего Давида, который завалит его как неповоротливого монстра. Нам, создателям стартапов, будет интересно понаблюдать за этой битвой, ведь в любом случае подебителями выйдем мы с вами.
Tags:
Hubs:
Total votes 24: ↑11 and ↓13-2
Comments16

Articles