Биография | Новости |
В 2006 году я познакомился с SEO, впервые зарегистрировался на форуме SearchEngines. И нельзя сказать, что с тех пор многое изменилось — поменялось абсолютно все.
10 лет назад поисковики не имели сложных алгоритмов и оптимизация ресурса была элементарным процессом. К примеру, хватало нескольких упоминаний ключевых слов в текстах и пары ссылок с других веб-страниц, чтобы сайт появился на первой странице выдачи. Веб-мастера стали использовать ключевики и внешние ссылки линейно — чем больше, тем лучше.
Так, буквально за пару лет появилось множество сайтов, которые показывались в топе и не давали людям нужной информации. Допустим, открываешь ресурс, а на главной странице «полотно» в 11 экранов прокрутки, в нем 200 раз упоминается слово «купить». Добраться до футера, где скрывается раздел «контакты», было просто невозможно.
К 2008 году, чувствуя конкуренцию Google, «Яндекс» встал на сторону пользователя и объявил борьбу с некачественными сайтами в выдаче. Так началось многолетнее «соревнование» отрасли SEO c поисковиком. Я постараюсь рассмотреть его основные этапы.
2008
Первые алгоритмы сервиса — «Магадан» и «Находка» — помогли системе лучше распознавать запросы пользователей: стали понимать аббревиатуру и транслит, связь между словами, переход из одной части речи в другую. Это привело к серьезному расширению списка выдачи, а значит, усложнило попадание в топ.
2009
Два основных инструмента — внешние ссылки и наполнение текстов ключевиками — по сути, были мерилом вплоть до апреля 2009 года, когда появился алгоритм «Арзамас». Он содержал фактор гео-зависимости, и сайты из топ-10 выдачи стали соответствовать городу, в котором человек искал магазин. Так появилось региональное продвижение.
Однако еще некоторое время в поиске лидировали не те компании, у которых были качественней ресурсы, отмеченные правильным геотегом, а те, чей маркетинговый бюджет был больше. Некоторые московские сайты благодаря покупке внешних ссылок могли держаться в топ-10 любого региона.
К концу года появились санкции «Снежинск», которые фильтровали страницы, перенасыщенные ключевыми словами. Отныне от сайтов требовалось наличие качественных текстов.
Фактор региональности стал еще значимее: по гео-независимым запросам в ТОП чаще выдавались информационные ресурсы. Учитывая обновленные параметры, ранжирование стало более релевантным.
2010
Осознав, что бороться со ссылочным бюджетом, используя «полумеры», тяжело, «Яндекс» стал вводить санкции на сайты-доноры, которые продают ссылки. Появившийся в августе 2010 года «Обнинск» одним обновлением фильтра останавливал работу до 30% ссылочной базы. Получалось так, что компания долго вкладывала деньги в покупку ссылок, но в итоге исчезала из поисковой видимости. Некоторое время оптимизаторы боролись с этим, изобретая новые виды доноров.
В декабре появился «Краснодар» и в случае неточного запроса выводил сайты по категориям. Он уже умел выделять ключевые объекты в обращении пользователя, а теперь начал индексировать в выдаче соцсеть «ВКонтакте».
2011
Поисковый сервис не останавливался в своих исследованиях, и летом 2011 года алгоритм «Рейкьявик» стал учитывать поведение пользователей. К примеру, когда при запросе на английском языке человек выбирал в выдаче англоязычные ресурсы, при следующем поиске система показывала в топе большее число зарубежных сайтов.
2012
К концу 2012 года «Калининград» разделял посещение ресурсов по времени присутствия и интересу пользователей к их наполнению. Сайты с хорошими поведенческими факторами стали подниматься наверх. Продвижение ресурсов становилось все более непростым делом.
2013
«Острова» начали показывать пользователям небольшие интерактивные блоки контента сайтов прямо в поиске. Таким образом, можно было не заходить на страницу, чтобы понять, как она устроена.
Проблем у SEO-специалистов добавилась: эти «острова» нужно было встраивать в код сайта и результат отсылать на проверку модератору «Яндекса». Правда, потом их все же убрали из основной выдачи.
2015
В среднем «Яндекс» запускал новый алгоритм 2 раза в год и постепенно подбирался к SEO-ссылкам. Несколько лет подряд он заявлял, что отключит ранжирование по ним для коммерческих запросов. Но оптимизаторы не переставали использовать донорские сайты, видимо, просто не верили, что предупреждение может воплотиться в жизнь. А поисковик пошел на крайние меры.
В мае 2015 года появился алгоритм «Минусинск», который фильтрует купленные SEO-ссылки. И если раньше существовало порядка 30 оценок страницы донора, то в прошлом году их стало больше 100.
В случае, если на сайт приводит большое количество «плохих» ссылок, он попадает под «Минусинск». Это значит, что у ресурса пропадает весь поисковый трафик. Так в один день порядка 1000 крупнейших ресурсов полностью лишились трафика.
В ноябре 2015 «Яндекс» объявил, что ранжирование по внешним ссылкам вновь работает. Однако оптимизаторы уже опасаются напрасно тратить бюджеты.
Подводя итоги, отмечу, то в 2009 году «Яндекс» требовал соблюдения порядка 50 факторов соответствия стандартам топ-10 выдачи, в 2011 году их стало уже 250.
Сегодня машины научились распознавать множество мельчайших заданных деталей, и чтобы иметь возможность подняться на высокое место в результатах поиска, сайт должен соответствовать более, чем 800 параметрам, уследить за которыми сложно. Но если внимательно заниматься сайтом с точки зрения контента, анализировать запросы, отслеживать конверсии, оценивать лиды, смотреть метрику, изучать звонки клиентов, причины их ухода, то можно создать действительно качественный ресурс, что обязательно отразится на результатах выдачи.
Таким образом, ситуация в сфере SEO сегодня очень интересная. Каждый год поиск становится сложнее, «Яндексу» удалось добиться всесторонней оценки сайтов с точки зрения качества информации. За ним на хороший уровень выходит и оптимизация, которая за 10 лет перестала быть просто спамом, полностью изменилась.