×
Россия +7 (495) 139-20-33

О черном и белом, поиске и оптимизаторах

Россия +7 (495) 139-20-33
Шрифт:
0 7460
Подпишитесь на нас в Telegram

Статья подготовлена специально для журнала «Интернет в Цифрах»

Отношения поисковиков и оптимизаторов не всегда строились гладко. Соблазн манипулировать выдачей с помощью SEO был столь велик, что многие оптимизаторы не находили сил ему сопротивляться. Поисковики, в свою очередь, быстро вычисляли нерадивых SEOшников, и наказание в виде пессимизации не заставляло себя долго ждать. Своеобразная «гонка преследования» продолжается и до сих пор: поисковики изобретают новые факторы ранжирования, оптимизаторы стараются их вычислить и не отставать. Однако можно ли сегодня назвать это «противостоянием»? Может быть, отношения поисковиков и оптимизаторов движутся абсолютно в противоположном направлении сотрудничества?

Чтобы прояснить ситуацию, мы решили пообщаться с одними из самых ярких представителей индустрии — Александром Садовским (Яндекс) и Сергеем Людкевичем (Корпорация РБС). Итак, представляем вашему вниманию ответы экспертов.

Александр Садовский, руководитель отдела веб-поиска Яндекса

Цель работы поисковика?

Основная цель Яндекса — решить поисковую задачу пользователя. Будь это запрос в поисковой строке или необходимость заказать такси, проложить автомобильный маршрут по городу.

Как влияет SEO-отрасль на поиск?

Примерно как осадки на урожай. В разумных количествах и умеренной интенсивности — помогает, чрезмерно бурные — мешают.

Как бы выглядела поисковая выдача без работы оптимизатора?

По запросам, где конкуренция за место в результатах поиска небольшая (например, региональные запросы, некоммерческие), результаты поиска могли бы стать не столь привлекательными. Сниппеты и заголовки могли бы хуже читаться, часть сайтов не индексировалась бы в полной мере из-за ошибок веб-мастеров при проектировании, некоторые хорошие коммерческие сайты находились бы ниже.

По коммерческим и популярным запросам вряд ли что-то поменялось бы.

Кто придумал деление на «черное» и «белое» SEO?

Важно понимать, что деление на «черное» и «белое» SEO — это не про эффективность, это про этику. Ее никто не придумывал, само существование социума неизбежно приводит к оценке деятельности каждого участника. Если действия человека мешают другим людям, они считаются неэтичными. Если каждый будет поступать неэтично, социум вымрет. Поэтому неэтичные действия порицаются, общество им противостоит, хотя конкретному индивидууму они могут быть выгодны.

Когда мы говорим о SEO, повсеместное применение «черных» методов может сделать не только поиск, но и всю экосистему, включая сайты и компьютеры пользователей, бесполезными. Например, компьютер будет тормозить, потому что на нем будут работать десятки троянов, полезная информация на сайтах будет перемешана с мириадами купленных и проданных противоестественных ссылок. А реклама в интернете станет бесполезной из-за массового скликивания и накрутки.

Можно ли вывести сайт в конкурентный ТОП исключительно «белыми» методами?

Можно. Почему вы в этом сомневаетесь?

Закупка ссылок, накрутка ПФ и т.д. — уловка или необходимость в работе SEO-специалиста?

Это прямые и неправильные методы. Мы делаем всё, чтобы результат таких накруток не был долговременным и надежным.

Если у больного температура, то примитивная логика состоит в том, что можно понизить ее, сбив температуру на градуснике. Но от того, что градусник начал показывать норму, никому лучше не станет. От того, что поисковик начнет (если начнет) считать сайт нормальным и ранжировать выше, пользователи не получат ответ лучше.

Реально ли обмануть поисковик и остаться в ТОПе?

Суть этого вопроса хорошо изложена в книгах вроде «Как выиграть миллион в лотерею». Наверное, есть и те, кто попали в ТОП обманом, но гораздо чаще те, кто пытались обманывать, остаются ни с чем.

Усложнение формулы ранжирования в отношении коммерческих сайтов — залог качественной выдачи?

Мир устроен по-разному в разных его частях, пользователи выбирают сайты исходя из разных критериев. Логично учитывать эти предпочтения при формировании ответа, если мы хотим качественно решить задачу пользователя. В частности, когда пользователь хочет что-то купить, ему важно доверять сайту, которому он заплатит деньги и от которого будет ждать поставки товара или услуги; он обращает внимание на ассортимент и удобство выбора; для него много значит качество оказываемой услуги. Именно поэтому к ранжированию коммерческих сайтов нужен отдельный подход и отдельная формула. Например, недавно мы ввели новую формулу ранжирования коммерческих сайтов Московского региона.

Правильно ли ставить блок спецразмещения, где порядок сайтов определяется ценой, выше органической выдачи, где порядок сайтов определяется алгоритмом?

Спецразмещение — это реклама, но предположение, что порядок сайтов в спецразмещении определяется только ценой, ошибочно. Спецразмещение очень релевантно благодаря сложным алгоритмам отбора, учитывающим не только цену, но и интерес пользователей. Более того, часто оказывается, что сайты, размещающие рекламу здесь и сейчас, готовы обслужить пользователя лучше, чем сайты, попавшие против своей воли в выдачу — было бы удивительно одной рукой тратить деньги и плохо обслуживать другой. Поэтому контекстная реклама в Яндексе не только решает задачу рекламодателя, но и дает хороший ответ пользователю, когда он хочет купить или получить услугу.

Конечно, рекламный ответ должен быть явно обозначен, чтобы пользователь не думал, что это органическая выдача — и мы это делаем, подписывая «реклама» и отделяя блок объявлений визуально.

Яндекс и SEOшники находятся по разные стороны баррикад или нет?

Вы были у нас в гостях, заметили ли Вы баррикады? Вот я каждый день хожу в офис и не видел никаких баррикад. Если они и есть, то с другой стороны кто-то иной, не Яндекс :)

Есть ли разница в «точках противостояния» SEO и поиска в случае Яндекса и Google (+ других поисковиков)?

Черное SEO противостоит не поисковым системам, а пользователям. А белое помогает и поисковикам, и пользователям находить нужный контент. В этом смысле отношение к SEO у большинства поисковиков схожее.

Как (по)влияет на SEO учет поисковиками новых сигналов, в т.ч. социальных сетей?

Мы давно индексируем весь открытый (доступный без логина и пароля) контент социальных сетей и работаем над тем, чтобы делать это практически мгновенно после появления или обновления информации. С точки зрения сигналов — это еще несколько хороших источников информации к нескольким сотням уже имеющихся.

Насколько будет актуально SEO в мобильном поиске? С одной стороны первые места в выдаче, кажется, важнее, с другой — поисковики пытаются сразу выдавать «ответы». Наконец, есть и развивающийся SEO аппсторов.

Насколько мы могли наблюдать тренды, интерес SEO прямо пропорционален тому, сколько владельцы сайтов готовы платить за продвижение их ресурса. А это зависит от конверсии и доли трафика с данной платформы. Пока доля поисков с мобильного телефона относительно невелика — около 10%, но она постоянно растет. Чем больше она будет, тем жарче будет страсть SEO к мобильному поиску.

Сергей Людкевич, руководитель отдела исследований и аналитики Корпорации РБС

Цель работы поисковика?

Яндекс, к примеру, обозначает свою главную задачу, как «отвечать на вопросы». Но я бы сформулировал несколько иначе — обеспечить подборку качественных ресурсов, содержащих в той или иной мере ответ на заданный пользователем вопрос. Хотя на некоторый очень узкий спектр вопросов поисковики пытаются дать и непосредственный ответ. Например, функция встроенного калькулятора Google.

Как влияет SEO-отрасль на поиск?

По сути, оптимизаторы участвуют в формировании топа выдачи по очень многим коммерческим запросам.

Как бы выглядела поисковая выдача без работы оптимизатора?

В топе были бы несколько другие сайты, но тоже отвечающие на запрос. Однако среди этих сайтов было бы гораздо больше неактуальных, неподдерживаемых, а то и вовсе заброшенных. То есть, в общем ответить на вопрос пользователя они бы могли, но удовлетворить многие связанные с этим запросом потребности — например, получение наиболее актуальной информации, покупки товара или заказа услуги — уже нет.

Кто придумал деление на «черное» и «белое» SEO?

Честно — не знаю. Впрочем, думаю, подобное деление очевидно, и оно могло прийти в голову одновременно многим людям.

Можно ли вывести сайт в конкурентный ТОП исключительно «белыми» методами?

Вообще, «черные» методы — это когда пользователь и поисковик получают разное содержимое. То есть поисковик ранжирует документ на основании одних данных, а пользователь видит нечто другое. Классические примеры — клоакинг, скрытый текст, редиректы. Сейчас такими вещами пользуются только дорвейщики, все конкурентные топы сформированы без применения черных методов. Другой вопрос — скажем так, оттенки белизны «белых методов».

Закупка ссылок, накрутка ПФ и т.д. — уловка или необходимость в работе SEO-специалиста?

Есть алгоритм (или еще его можно назвать функцией) ранжирования поисковой машины. Он учитывает некоторое количество факторов, как запросозависимых, так и нет. На основе значений этих факторов для конкретного документа и конкретного запроса алгоритм присваивает данному документу численное значение релевантности данному запросу. Задача оптимизатора — достичь таких значений факторов, которые бы максимизировали функцию алгоритма. Если для этого нужно определенное количество, например, ссылочной массы — его нужно обеспечить.

Здесь основная проблема заключается в том, что многие значимые факторы очень сложно, а то и невозможно улучшить естественным развитием сайта, как любят советовать поисковики. Например, очень мощный в последнее время фактор в Яндексе — кликабельность документа в выдаче по запросу. Если документа нет в топе, то кликать по нему никто не будет, как ты сайт ни развивай. Буквально год-полгода назад в Яндексе был очень мощным такой фактор, как релевантность запросу доменного имени. То есть для его улучшения вообще нужно было менять доменное имя. Какое отношение это имеет к развитию сайта?

Да и вообще, в погоне за увеличением количества факторов (если очень утрированно объяснять — этого требует машинное обучение, использующееся в Яндексе для построения функции ранжирования) было придумано много довольно неочевидных и даже абсурдных с точки зрения развития сайтов факторов — например, количество латинских букв в тексте документа. Более того, в результате машинного обучения получается функция, которая вообще не имеет физического смысла. Разработчики пытаются ее корректировать с помощью искусственно вводимых фильтров, штрафов и бонусов, но это тоже далеко не всегда выглядит органично. Например, введенный прошлой осенью в Яндексе штраф за переоптимизацию, который в числе прочего штрафует за чрезмерное использование тегов физической и логической разметки и заголовков. Развивал вебмастер свой сайт, структурировал текст, писал красивые заголовки для разделов, выделял важные места жирным шрифтом — и в итоге получил понижение на десятки позиций.

Так что руководства поисковиков говорят одно, а вот на деле алгоритму нужно совсем другое. И оптимизатору приходится удовлетворять в первую очередь потребности алгоритма, а не пользователя. И некоторые вещи, которые нравятся алгоритму, не совсем понятны пользователю, если не сказать более.

Реально ли обмануть поисковик и остаться в ТОПе?

Смотря, что считать обманом. Если в терминах «черных» методов, которые я озвучил выше — нереально. Если вести речь о других методах — то тут, скорее, нужно говорить не об обмане, а о чувстве меры. Там, где оно не срабатывает, могут возникнуть проблемы.

Усложнение формулы ранжирования в отношении коммерческих сайтов — залог качественной выдачи?

Трудно сказать. Далеко не все усложнения идут в плюс качеству. Да и что именно считать качеством? У поисковиков свои внутренние метрики, которые они улучшают. У пользователей могут быть совершенно другие критерии, у оптимизаторов — третьи.

Правильно ли ставить блок спецразмещения, где порядок сайтов определяется ценой, выше органической выдачи, где порядок сайтов определяется алгоритмом?

В последнее время наблюдается явная тенденция к вытеснению органической выдачи с видимой части экрана. Реклама, собственные ресурсы поисковика — различные сервисы типа карт, картинок, агрегаторов цен и т.п. — призваны первыми бросаться в глаза пользователю. Я лично не считаю это правильным, но, повторюсь, у поисковиков свои метрики качества выдачи.

Яндекс и SEOшники находятся по разные стороны баррикад или нет?

Если называть вещи своими именами — то, скорее да, чем нет. Сотрудникам Яндекса очень не хочется, чтоб кто-то мог сознательно и направленно влиять на результат работы алгоритма. А функция оптимизатора заключается именно в этом. С другой стороны, оптимизаторы часто помогают найти слабые места алгоритма, способствуют его развитию и улучшению, но антагонизм все же, думаю, перевешивает симбиоз.

Есть ли разница в «точках противостояния» SEO и поиска в случае Яндекса и Google (+ других поисковиков)?

Ну, собственно вся разница в реакции конкретного поисковика на конкретные действия оптимизаторов. Да, сейчас реакция несколько разная, и зачастую нужно думать, как сделать так, чтоб страница понравилась алгоритму и одного, и другого поисковика. Иной раз результат этих дум выглядит довольно странно с точки зрения неискушенного пользователя.

Как (по)влияет на SEO учет поисковиками новых сигналов, в т.ч. социальных сетей

Оптимизаторам придется улучшать значения «социальных» факторов с точки зрения алгоритма. Во что конкретно это может вылиться — остается только догадываться.


Поисковики и оптимизаторы — части единой экосистемы. И пусть в их отношениях нередко возникают недопонимания и спорные моменты, все же они стараются идти навстречу друг другу. До понятия «дружба», конечно, им еще далеко, однако, такой термин как «взаимовыгодное сотрудничество» вполне будет уместен.


Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Альманах фатальных ошибок b2b-сайта: как владельцы бизнеса обрекают сайты на бесславное существование. Часть первая
Сергей Ерофеев
3
комментария
0
читателей
Полный профиль
Сергей Ерофеев - Спасибо за комментарий! Вы правы, если за CMS следит заинтересованный профессионал - риски минимальны. Но мы же с вами понимаем, что: а) Не каждый разработчик делает все, как "для себя". б) После создания сайта разработчик редко остается на проекте в) Часто разработчик не является маркетологом. В этом случае принцип "функционал работает и этого достаточно" может быть на первом месте. Мы тоже видели большое количество хороших и качественных проектов на бесплатных CMS, но проблемных проектов мы видели сильно больше. Просто статистика.
Белые и серые методы продвижения. Тренды 2023
sarges
2
комментария
0
читателей
Полный профиль
sarges - Нужно учитывать и тот факт, что со временем методы продвижения меняются и необходимо подстраиваться под новые реалии. Посоветую заглянуть на zenlink.ru/blog/kak-izmenilsja-internet-marketing-za-10-let и почитать статью, там рассказывается о том, как изменился интернет-маркетинг за последние 10 лет, какие сейчас тенденции и какие прогнозы в этой сфере.
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Seodm.ru
3
комментария
0
читателей
Полный профиль
Seodm.ru - Ааа по мне, сам seo специалист, вероятность внедрения необходимого контента на тильда того же блока этапом работы или преимуществ, намного выше чем на движке. А что тильда что движок малый бизнес норм продвигается особо супер разработки не требуется
Как автоматизировать мессенджеры для бизнеса в CRM-системе
Алиналина
1
комментарий
0
читателей
Полный профиль
Алиналина - Кстати да. Но мы зарегались, CRMка реально интересная
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Кейс MediaNation: увеличили еженедельный трафик автомобильной компании на 50% за год и вышли в топ поиска по 300 запросам
Игорь Скляр
1
комментарий
0
читателей
Полный профиль
Игорь Скляр - Действительно, изначально рост был именно по информационным запросам. Но рост позиций и трафика по информационным запросам положительно повлиял и на связанные позиции по коммерческим запросам и сдвинул видимость с мёртвой точки
Чек-лист: как настроить рекламу в Яндекс Директе и избежать ошибок
Сергей Ильин
2
комментария
0
читателей
Полный профиль
Сергей Ильин - я ваще не туда написал
Как дожать сайт до ТОПа? Выжимаем весь сок из SEO под Яндекс и Google
Фанит
2
комментария
0
читателей
Полный профиль
Фанит - Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
116
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!