Михаил Волович (АиП) про YATI, Core Web Vitals и другие изменения на рынке интернет-маркетинга

У нас становится хорошей традицией встречаться с вами в начале года: подводить итоги прошлого и обсуждать планы на новый. Напомню читателям наше прошлогоднее интервью и перехожу к вопросам.

Я бы отметил одну тенденцию, наметившуюся в прошлом году, – мне кажется, она действительно важная.

На протяжении почти трех лет доля крупных сайтов в выдаче Яндекса активно росла. На нашей стандартной выборке уже почти половина сайтов в ТОП-3 Яндекса в начале 2020 года была с огромным ассортиментом – 45%, в три раза больше, чем в середине 2017-го. И даже в ТОП-30 доля таких сайтов достигла четверти (в 2017-м было всего 10%).

А в прошлом году этот рост прекратился: в первом полугодии было даже небольшое падение, а последние полгода ТОП-3 колеблется около отметки в 40%, ТОП-30 – около 23%. За этот год ТОП-3 Google даже обогнал ТОП-30 Яндекса – 27%, при стабильных уже на протяжении полутора лет 14-15% в ТОП-30.

Похожая картина и с другими параметрами, связанными с размером сайтов – например, с ИКС или с количеством ссылок на сайт. Правда, некоторые из них для ТОП-3 Яндекса в последние месяцы опять немного выросли. 2021 год покажет, возобновится ли движение Яндекса в сторону «укрупнения» выдачи. Но то, что в 2020-м оно по меньшей мере приостановилось, в любом случае не может не радовать.

YATI

Это продолжение линии Королева и Палеха, с главной целью – найти релевантный ответ там, где прямое вхождение слов запроса мало помогает, потому что на подходящей странице ни одного из них может просто не быть. Это область, в которой поисковые машины до сих пор не так сильны, как может показаться. И любой прогресс здесь важен – тем более, если он исчисляется, как утверждает Яндекс, несколькими процентами качества (что очень много).

Но это буквально противоположный конец спектра по сравнению с той зоной, где обычно работает SEO.

Как только за дело берутся «поисковые оптимизаторы», поисковики сталкиваются с совершенно другими проблемами. Как выбрать из ста почти одинаковых сайтов, где и все слова запроса, и сам запрос встречаются десятки раз, самый приличный (полезный, дешевый и надежный) клон? Какие письменные столы (тесты на ковид, билеты в Казань) показать на первом месте, какие на третьем, а какие на десятом? Релевантность запросу тут почти не имеет значения – то есть она, конечно, нужна, это само собой, но она есть у всех, и поэтому не она определяет порядок.

«Сигналы» – это, кажется, что-то из лексикона Google; в Яндексе предпочитают говорить о факторах ранжирования. Причем Google о своих сигналах все больше рассказывает, а Яндекс свои факторы традиционно окутывает туманом. Не так давно Google объявил, что через полгода начнет учитывать Core Web Vitals, – и мы, конечно, начинаем их учитывать тоже.

Новые параметры подключаются регулярно. Иногда, по разным причинам, приходится отключать старые. Таким образом, состав параметров, которые мы учитываем, понемногу обновляется и постепенно растет.

«Открыли доступ» звучит так, как будто они уже были готовы, и мы их просто опубликовали. Но на самом деле прежде, чем опубликовать на SearchLab.ru, мы их очень сильно доработали по сравнению с исходными версиями, которые делались «для себя». И продолжаем дорабатывать, потому что хотим, чтобы они были без преувеличения лучшими в своем классе.

Разумеется, кластеризатором пользуются больше – это понятный для SEO-людей сервис, который нужен всем, кто работает с большим количеством запросов и большим количеством страниц. Правда, у нашего сервиса много конкурентов, в том числе и бесплатных, – но многие из тех, кто попробовал нашу кластеризацию, остаются с нами, потому что она экономит усилия и вообще очень удобная и мощная.

Второй сервис – LSI-анализ – более нишевый, и у него пользователей меньше. Его идея когда-то была подсказана «Акварелью» JustMagic: раскрасить слова в тексте в соответствии с тем, у скольких конкурентов в ТОП-10 они встретились. Но с тех пор сервис сильно вырос, и когда мы стали готовить его к публикации, оказалось, что в нем уже есть почти весь тот функционал, который присутствует в нашем фирменном текстовом анализе. Сейчас думаем, как их совместить, – а пока учимся генерировать на основе LSI-анализа задание для копирайтера (в двух вариантах – переписать или написать с нуля).

Следующие сервисы, по-видимому, будут уже ближе к тем полуавтоматическим аудитам сайтов, которые мы выполняем для наших клиентов. Мы несколько лет подряд проводили для участников конференций Optimization экспресс-аудиты сайтов только силами Лаборатории, без участия оптимизаторов. Эти аудиты не были полностью автоматическими – в них участвовали наши асессоры. Вот о каком-то таком формате мы сейчас и думаем. Надеюсь, новая линейка сервисов появится на сайте SearchLab.ru в середине года.

Как и у всех – в самоизоляции :)

«Тургенев» стабильно работает, представить без него копирайтинг в 2020 и 2021 году уже довольно трудно. Мы понемногу пополняем базу стилистических маркеров, ее объем недавно превысил 42 000.

Из новостей – неиспользованные проверки больше не сгорают по окончании периода подписки, если подписка продлевается. Кстати, это и на SearchLab.ru теперь тоже так.

И еще – с логином и паролем «Тургенева» теперь можно пользоваться и сервисом интеллектуальной проверки правописания ОРФО онлайн, а при наличии подписки на «Тургенева» получать скидку 20% на подписку на ОРФО.

Про низкое качество текстов – да, кажется, не изменилось. Но это на входе – а на выходе, после редактирования, тексты все-таки становятся лучше, так что, мне кажется, мы работали не зря. 

Тексты на сайтах тоже понемногу улучшаются (главная заслуга в этом, конечно, принадлежит Яндексу).

Правда, неравномерно: например, стоит мне открыть какой-нибудь сайт про мебель или стройматериалы, рука сама тянется собирать маркеры для «Тургенева». Там почему-то сохраняется какой-то заповедник ужасных текстов.

По поводу «текстов для продвижения сайтов в 2021 году» – позвольте поймать вас на слове. Не бывает каких-то отдельных текстов для продвижения сайтов. Если тексты не для читателя, а для продвижения, то им прямая дорога в «Баден-Баден». По крайней мере, именно в этом и состоит риторика Яндекса.

Google, кстати, наоборот, иногда ругает вебмастеров за недостаточную оптимизированность текстов на сайте. Перекладывая на них, таким образом, ответственность за то, что, по идее, должны были бы «вытягивать» его собственные поисковые алгоритмы.

Возвращаясь к сути вопроса – каким должен быть текст, по-прежнему сильно зависит от типа сайта и страницы.

Если это каталог товаров в интернет-магазине, то SEO-текст должен быть максимально лаконичным, – и не факт, что он вообще нужен. Это не значит, что на странице не должно быть много слов запроса, слов, выделенных в сниппетах, и прочей LSI-лексики. Но правильное место для них – в описаниях товаров, в дополнительных текстовых блоках, т.е. в том, что сейчас принято называть текстовыми фрагментами.

Если же это информационный текст, например, медицинский, то «Баден-Бадена» можно особо не бояться – и тогда чем длиннее текст, тем больше ключевых слов и выражений вы сможете в него уместить. Но все равно не стоит забывать о структуре, хорошем стиле и прочих приличиях. Думайте о тех, кто будет это читать: поисковики понемногу учатся смотреть на сайты их глазами.

Боюсь, что сейчас для коммерческих тематик центр тяжести – извините за каламбур – в весе сайта. Считать вес можно по-разному – в ИКС, количестве посетителей, Алекса-ранге, ассортименте, количестве страниц и т.д. Результат от этого меняется не очень сильно.

Надеюсь, что в недалеком будущем и в коммерческом сегменте возобладает та тенденция, которую мы наблюдаем в YATI. Качество ранжирования будет достигаться за счет более точной оценки потребностей пользователя, выраженных запросом, и того, насколько каждый из вариантов поискового ответа способен их удовлетворить. Будет учитываться не только надежность магазина, но и, например, цена.

Сейчас вряд ли кого-нибудь удивит ответ на запрос про отзывы на товар или организацию со снипетом: ... Отзывов: 0. Добавить отзыв.

А ведь это очевидный провал – релевантность здесь чисто формальная, отзывы упоминаются, но это совсем не то, что мы искали.

Поиск был одной из первых областей, где стали успешно применяться методы машинного обучения. Самые успешные применения нейросетей – машинный перевод, анализ изображений, распознавание речи – очень многим обязаны как раз поиску. Но сейчас поиск заметно от них отстает. Скорее всего, этот разрыв в эффективности использования машинного обучения в скором времени будет преодолен.

В течение 2020 года вы традиционно готовили отраслевые исследования по факторам ранжирования. Мы заметили некоторые изменения в этих отчетах и дальше хотели бы поговорить про них.

Главная причина в том, что за год меняется не так уж и много, и второй раз писать о том же самом часто уже просто неинтересно. В 2020 мы решили добавить в аналитические отчеты итоги опросов по соответствующей отрасли и другие маркетинговые разделы; их автор – Антон Тришин, маркетолог «Ашманов и партнеры».

А от финансов не отказались, просто в прошлом году не сложилось.

Мне кажется, стоит удивляться скорее тому, что Google ограничивает количество агрегаторов в выдаче. Яндекс просто этого не делает. Ему более или менее все равно, магазин перед ним, маркетплейс или агрегатор.

Стратегия предпочитать больших маленьким – самая простая и логичная. Я бы даже сказал, естественная.

Во-первых, крупные сайты, очевидно, надежнее. Если на них уже ходит 100500 человек, то, очевидно, и с 100501-м, если его туда послать, ничего плохого, скорее всего, не случится. Миллионы пользователей ошибаться не могут.

Во-вторых, большие сайты уже давно проверены и испытаны поисковиками; известно, как пользователи на них себя ведут – и вообще, и по конкретным запросам.

В-третьих, действует положительная обратная связь. Крупные сайты могут позволить себе нанять хороших специалистов, которые понимают, например, что кластеризовать запросы лучше на SearchLab.ru (как это делает «Озон»). Они могут потратить на поисковую оптимизацию столько, сколько нужно. Могут позволить себе написать хорошие тексты, и так далее. И поэтому они продолжают расти.

Но в прошлом году появилась надежда на то, что Яндекс готов выйти из этого замкнутого круга: рост доли крупных сайтов, наконец, приостановился. Посмотрим, что будет дальше.

Вряд ли я могу сказать что-нибудь нетривиальное.

Наблюдайте за схваткой добра и справедливости: те самые сайты, которым Яндекс позволил монополизировать выдачу в недвижимости, сейчас пожаловались на него в компетентные органы, что он слишком высоко ранжирует собственный сервис (Яндекс.Недвижимость). Возможно, внешние монополисты победят внутреннего, и колдунщиков в выдаче станет меньше.

Находите менее конкурентные ниши, продвигайтесь по «длинному хвосту».

Учитесь конкурировать за позиции внутри агрегаторов, маркетплейсов и собственных сервисов поисковиков.

Растите и, возможно, однажды вы сами станете мастодонтами.

Нередко у поисковика есть основания считать, что пользователь ищет конкретный сайт – и тогда этот сайт оказывается на первой позиции независимо от всех остальных факторов ранжирования. Кроме запросов разной степени навигационности такое случается, например, с сайтами производителей или эксклюзивных дистрибьютеров. По информационным запросам – с Википедией.

Далее, выдача по очень многим высоко- и среднечастотным запросам не просчитывается каждый раз, когда их задают. Она инерционна, и в наибольшей степени это касается самых первых позиций. Для этих запросов уже обсчитано поведение пользователей. И здесь на авансцену выходят поведенческие факторы, причем не общие, а очень специальные, привязанные к конкретным запросам.

Когда-то – может быть, год назад – было потрачено машинное время, чтобы оценить, по какому из результатов поиска лучше кликают, сколько времени проводят на сайте и что именно на нем делают. Возможно, в оценке участвовали и сайты из второй или третьей десятки, «подкинутые» «многорукими бандитами». По итогам проведенных вычислений два-три сайта всплыли наверх и там закрепились. Когда этот результат может быть пересмотрен? Скорее всего, когда у робота, обсчитывающего выдачу, снова дойдут руки до этого запроса. Но запросов-то много, руки могут дойти нескоро.

С другой стороны, похоже, иногда включаются алгоритмы, перемешивающие результаты поиска при одинаковых или близких оценках у нескольких сайтов.

Мне приходилось видеть, как просто при перезагрузке страницы выдача Яндекса многократно менялась, и ни персонализацией, ни многорукими бандитами объяснить это было невозможно, потому что результаты были примерно одними и теми же, но выданными в разном порядке.

Это просто свидетельствует о сильном давлении отбора. Сайты его чувствуют и подстраиваются – а те, кто не соответствует духу времени, рискует потеряться на дальних подступах к топу или вообще выпасть из ранжирования по запросу.

Не факт, что выдача при этом становится лучше – но однороднее точно.

Google довольно пафосно объявил о том, что отныне при ранжировании будет учитываться удобство сайтов для пользователей, и дал вебмастерам время на подготовку и инструменты для тестирования. Удобство для пользователей, правда, свелось к различным аспектам скорости загрузки, но, в принципе, инициатива во всех отношениях похвальная и ни к какому росту конкуренции не ведущая. Нас просто заранее предупредили о том, что вводится новый фильтр (или понижающий коэффициент) для слишком медленных.

В принципе, ничего особенного в этом нет – так было и с https, например.

Пропагандой защищенного соединения больше занимался Google, но соответствующий параметр всегда был сильнее в Яндексе. Кто знает, не произойдет ли чего-то похожего и с «виталсами».

Кстати, когда-то Яндекс тоже долго предупреждал, что будет наказывать за ссылки, – а потом взял и ввел «Минусинск». Дату, правда, заранее не объявлял, но в остальном много общего.

Очень сомневаюсь, что поисковики могут прямо или косвенно наказывать за онлайн-консультанта. Если он вам нужен, не бойтесь его использовать – он не поможет в поисковом ранжировании, но и не помешает.

Скорее всего, дело просто в том, что онлайн-консультант экономически оправдан для небольших и средних бизнесов, но плохо масштабируется на сайты (бизнесы) с огромным количеством клиентов и очень большим ассортиментом. А чем ближе к топу, тем сайты крупнее.

Кстати, и с откровенно положительными «факторами ранжирования» может быть то же самое – не прямое участие в ранжировании, а корреляция с какими-то факторами, которые действительно учитываются.

Этот рынок довольно консервативный с точки зрения маркетинга. На нем сравнительно недавно – гораздо позже, чем, например, в ecommerce, – начался переход от офлайновых рекламных инструментов к онлайну.

Но главное, недвижимость – одна из самых монополизированных тематик. Многие агентства опустили руки, понимая, что по многим запросам даже в десятку (не говоря уже о тройке) попасть нереально: там сплошь агрегаторы. У застройщиков ситуация еще хуже.

Борьба за поисковый трафик и в таких условиях, конечно, все равно имеет смысл – как за прямой (непосредственно от поисковиков, например, по «длинному хвосту»), так и за опосредованный, прошедший через агрегаторы. Но это сложное SEO. 

Точно Core Web Vitals – по крайней мере, на первую половину года, а там посмотрим.

Необходимость бороться за места не только (а часто и не столько) в результатах поиска, но и выдаче агрегаторов и маркетплейсов, включая собственные сервисы поисковиков.

И еще мне кажется очень многообещающей история с ранжированием фрагментов текста (passages), за которое взялся Google. Яндексу придется подтянуться, и это может дать новое качество поиска по информационным запросам – если, конечно, как это часто бывает, гора не родит мышь.

(Голосов: 15, Рейтинг: 3.47)