Задачи поисковой системы или нестандартный подход к продвижению

Данная статья высказывает немного иной подход к интернет-маркетингу и SEO. Здесь я попытался выразить МИССИЮ и задачи информационно-поисковых систем в современной интернет-экономике. Я считаю, что если вы, мои дорогие читатели, будете это понимать, то у вас появится больше степеней свободы в понимании продвижения сайтов и в ситуации на рынке, чтобы ваше продвижение не превращалось в дискуссию импотентов, которые рассуждают на форуме у кого «упал», а у кого «поднялся» сайт и что делать, чтобы «стоял».

Итак, поехали. Я считаю, что основные задачи поисковой системы это:

  1. Обеспечение релевантности поиска.
  2. Обеспечение [узко]тематичности поиска.
  3. Обеспечение разнообразия выдачи.
  4. Уникальность выдаваемых результатов (главным образом текста).
  5. Геотаргетивность выдачи.
  6. Монетизация трафика. На чем то же нужно зарабатывать, коли поиск бесплатный!
  7. Ну, и, наконец, задача, которая навязана коммерцией и задачами монетизации (получения прибыли с поиска) — борьба с оптимизаторами. Не путать с задачей борьбы со спамом (борьба со спамом и накрутками — является подзадачей задачи № 1).

Разберем подробно каждый пункт:

Обеспечение релевантности поиска

Релевантность — НАСКОЛЬКО {....} пользователь НАШЕЛ то, что искал.

Муркетолог

Здесь в {....} можно поставить разные дополнения: хорошо/быстро/качественно/адекватно и так далее.

Долго решение этой задачи по большинству запросов ведущим поисковым системам не удавалось. Так, были времена, когда обмануть поискового робота можно было также легко, как и поиск в Ворде. Эти времена прошли, впрочем, так же, как и времена отсутствия в Интернете конкуренции между коммерческими компаниями (определение релевантности в Википедии). Помню времена, когда ищешь, например, «фокусное расстояние», а он выдает часть результатов не про оптику, а про расстояние между городами или про фокус чего-либо (когда релевантна была выдача только по фразе, состоящей из одного слова, по двум и более словам в выдаче царил бред).

С тех пор поисковые системы натаскали свои алгоритмы настолько, что они довольно точно могут искать. Да и пользователи научились формулировать запросы так, чтобы в первых пяти строчках находить то, что им нужно. По выражению Андрея Себранта (директор по маркетингу сервисов Яндекса):

Если пользователь идет на вторую страницу, то значит, что он не нашел то, что ему нужно на первой и нам нужно совершенствовать поиск!

Обеспечение [узко]тематичности поиска и матрица тайтлов

По-видимому, поисковая система стремится, чтобы пользователь получал не только искомый документ, релевантный запросу, но и чтобы весь веб-сайт (хотя, что такое веб-сайт ходят споры, но обычно понимается отдельный домен) содержал в себе преимущественно информацию по искомому запросу.

Например, сайт, посвященный «ремонту Iphone» (и только ему!) будет выигрывать (по слову «ремонт iphone») у сайта, который производит ремонт всех мобильных телефонов подряд, и так далее можно привести множество примеров, когда узкотематические сайты с небольшими ссылочными бюджетами обходят своих маститых конкурентов (с большим ассортиментом услуг или товаров).

А теперь зададимся вопросом: КАК поисковая система может определить (например, из нескольких тысяч страниц) ЧЕМУ посвящен сайт? Наверно вы, мой дорогой читатель, начнете полагать, что де поисковый робот раскладывает контент по полочкам (индексам), потом сверяет преимущественно встречающиеся запросы на сайте с принадлежностью к определенным словарям (например: юридической тематики) и так далее. Я считаю, что упрощенно задачу определения тематичности всего сайта соответственно определенному запросу можно решить так: оценить по «головам» страниц, а точнее по присутствию ключевых слов в их title!

Конечно, чтобы «накрутить» тематичность, казалось бы, проще всего сдублировать ключевую фразу на всех title сайтах и вуаля... сайт будет считаться посвящен данному ключевому слову? Ан нет. Делая так, мы нарушаем правило уникальности контента внутри собственного сайта в рамках пассажа своего ключевого слова.

Вот, например, для ведущего интернет-магазина бытовой техники Рунета приставка ко всем title сайта фразы «Холодильник.ру» не страшна, поскольку здесь всего одно слово (точка означает конец предложения!). Таким образом, в идеале, title должен включать в себя ключевую фразу, но в словоформах, так, чтобы она не дублировалсь одинаково много раз в одном падеже. И чем большая часть под площадью матрицы будет одинакова, тем нейтральнее (близится к нулю) будет тематичность сайта по этому критерию!

Обеспечение разнообразия выдачи

Другой крайностью (по сравнению с тематичностью), является та, когда даже не то, что машине, человеку не понятно, что же ищет пользователь. Здесь задача — дать этому «заблудшему» пользователю максимально разнообразные результаты. Пускай выбирает, что ему по душе!

Например, что ищет пользователь, который набирает фразу «ремонт» или «фото». Ремонт стиральных машин, квартир, мобильных телефонов и.т.д.? В идеале пользователю по таким (эти запросы называют «общие») фразам должны выдаваться результаты из разных тематик. Однако, что же мы видим, когда вводим слово «ремонт»? 8 из 10 результатов «ремонт квартир»!

Другой пример, как вы думаете, что должен видеть пользователь, когда ищет запрос «девочки»? Большинство взрослых людей мужского пола скорей всего ответят «девочек по вызову». Обычно по выдаче по этому запросу я и сравниваю качество разнообразия поиска. Сравните выдачу в Google по этому слову.

Уникальность выдаваемых результатов (главным образом текста)

Попробую дать определение «уникальности контента» в поисковой системе (ПС)

Уникальным (отсутствующем в данной ПС) на 100% в рамках кластера (или «шингла») из N слов (обычно N берется 6 до 9) считается тот объем текста, в котором любая последовательность из N слов, взятых подряд в четкой последовательности и введенная в поисковую систему в «кавычках» выдает ноль результатов.

Муркетолог

Для проверки на уникальность используются различные алгоритмы, которые в различной степени «насилуют» кэш поисковых систем. Опять же повторяюсь, уникальный текст — это текст, любого куска которого (больше 9 слов подряд) нет в поисковой системе. Но он может присутствовать в Большой Ленинской Библиотеке (не в электронном виде). Так, например этот пост, опубликованный на моем блоге, через 4 часа попал сначала в индекс поиска по блогам Яндекса, а затем (через 2-3 дня) его уже можно будет видеть в основном индексе. На тему уникальности контента (и где его взять) можно рассуждать, довольно много. Соответственно если контент неуникальный, то он называется дублированным, и к такой странице (или всему сайту) применяется фильтр «ты последний»:

Справа — автор, слева — тот кто копирует последним

Соответственно одной из проблем поисковых систем является проблема первоисточника (и авторства контента). Для нашей ПС (которая всего лишь явлется «зеркалом» Рунета), автором является тот веб-сайт, который попал в ее индекс первым и баста! Кстати, по выражению Антона Волнухина (руководителя проекта Яндекс Блогов):

Яндекс хранит все что когда либо было сказано на блогах, форумах и.т.д. с 1999 года и удаляет это только по просьбе самого автора, уже сейчас индекс блогов у Яндекс занимает около 30% от всей поисковой базы.

Согласитесь, если контент дублированный (а такого в общей массе большинство, как тот факт, что из всего почтового трафика в Интернет более 80% является спам трафик), то его дешевле складировать в базе поиска. И это действительно является стратегической задачей любой ПС (как у любой программы-архиватора, задача найти дублирующиеся куски байтов).

Один из сервисов проверки на уникальность показывает источники, на каких веб-страницах еще встречается текст. Замечание: моем блоге, является частью борьбы за «уникальность» результатов выдачи.

Геотаргетивность выдачи

В 2007 году мэр Москвы Юрий Лужков торжественно объявил, что «каждый дом в столице подключен к Интернету». Таким образом, можно констатировать, что рост в центре (Москва и область) значительно замедлился. Скорей меняются технологии доступа (от проводных-кабельных — к беспроводным, таким как Yota, и различный мобильный Интернет и WiFi). Однако от этого пользователь не перестает быть тем же пользователем что и зашедшим с модема. Растут скорости доступа. Благодаря оптоволоконному кольцу ДАТА-центров Москвы, по сути, превратилась в одну большую локальную сеть. И поэтому как для локальной сети вытекает факт, что подавляющая доля трафика в ней не выходит географически наружу (вспомните, когда вы последний раз были на англоязычном ресурсе?), это позволило провайдерам сделать безлимитный доступ.

Очевидно, что пользователю, который ищет слово «заказ пиццы», находясь во Владивостоке, совершенно не подойдут сайты московских/питерских фирм (которые в силу высокой конкуренции всегда вытесняли региональные сайты). И вот засада — сложно приучить пользователя писать также город в запросе. Он почему-то всегда сперва пишет слово «купить валенки», а потом уже «купить валенки самара» (да! и большую букву в запросе он, ленивый, тоже писать не любит!).

Так, будучи во Владивостоке, для меня стал неожиданным тот факт, что в регионах SEO находится в зачаточном состоянии, и на первом месте у них баннерная реклама на региональных порталах, затем контекст в Директе (на регион). И, по-моему мнению, реализация региональности выдачи — существенный рывок вперед для развития бизнеса и Интернета в регионах и появлению бОльшего количества региональных сайтов (которые найдут своего посетителя), а появится конкуренция среди них, будут жить и зарабатывать оптимизаторы!

Яндекс Арзамас-Снежинск успешно справляется с региональной выдачей. А что же Google?А Google до сих пор не научился различать регионы (только крупные города России по региональности!), и в этом плане у Яндекса фора. Так что «моем блоге,

Несмотря на то, что Mail.ru с 1-го января будет использовать поиск Google, по моему мнению, война между этими поисковыми системами практически всегда будет напоминать 1-ю Мировую войну в Европе («На западном фронте без перемен»), когда 3 года прошло в окопах: несмотря на усилия сторон Франции и Германии изменений границ не происходило.

Монетизация трафика поисковой системой

На чем-то же нужно зарабатывать, коли поиск бесплатный. С первого взгляда эта задача соперничает с задачей № 1 ПС (обеспечение релевантности), ведь, казалось бы, если пользователь будет больше страниц поисковой системы смотреть, то он вероятней может перейти по контекстной рекламе.

В начале нулевых часто раздавались возгласы, что «ПС продает места в выдаче», и многие клиенты даже верили в это (считали, что их можно купить). Нет, конечно, ни за какие (наверно) деньги ведущие ПС не будут продавать места в «бесплатной» выдаче. Опыт англоязычного Google показал, что больше всего на пользователях можно заработать, когда они используют контекстную рекламу. А для этого нужно нагнать там пользователей и создать конкурс (борьбу за цену клика).

Яндекс и Бегун объездили Россию со своими семинарами. В результате можно говорить, что в Яндексе контекст просто перегрет и на грани рентабельности (а по сути, спрос уравновешен предложением).

К сожалению Google моем блоге, своим «удобным» сервисом. Дополнительной задачей здесь является поиск площадок для того, чтобы «ухватить пользователя за хвост cookie» и по этим фразам показать пользователю контекстную рекламу. Поэтому многие и удивляются, почему у них на сайте по детским коляскам реклама про лечение простатита. Потому что с этого ПК кто-то это раньше искал раньше. Эта штука называется поведенческий таргетинг.

Аркадий Волож , ген. дир. Яндекса

Борьба с оптимизаторами

Не путать с задачей борьбы со спамом (борьба со спамом и накрутками — является подзадачей задачи № 1). С одной из точек зрения оптимизаторы — это своего рода волки-санитары леса. Под их давлением владельцы ресурсов улучшают для пользователей свои неэффективные сайты (поскольку обычно SEO-компании также занимаются разработкой). Давайте перечислим основные подзадачи борьбы Яндекса с оптимизаторами.

  1. Борьба с покупными ссылками.
  2. Борьба с серыми методами продвижения.
  3. Борьба с черными методами накрутки.

Первый пункт практически эквивалентен борьбе с биржей Sape. Хотя, интересен тот факт, что ПС Яндекс, по их выражению «не борется с Sape», а борется с сайтами, которые превышают определенный лимит исходящих ссылок (подпадают под фильтр).

За всё время существования ссылочная биржа Sape.ru претерпела невиданный прогресс. От просто гибкого инструмента купли-продажи ссылок, гарантирующего быстрый заработок и быстрое продвижение, она превратилась в монстра, который поверг Рунет в повсеместную ссылкопродажность. Процесс эволюции не прекращается ни на день, поскольку претензий к бирже хватает и у вебмастеров, и у оптимизаторов, а нагрузки на сервера такие, что приходится постоянно придумывать всяческие ухищрения по оптимизации всех процессов.

По поводу серых методов: многие методы продвижения сначала были «белыми и пушистыми», затем «серели» и постепенно становились черными:

Конечно, мне как разработчику поиска, чертовски обидно понимать, что из-за борьбы с оптимизацией приходится снижать влияние очень полезных, но слишком легко подвергаемых накрутке факторов. От чего неизбежно снижается качество веб-поиска (избирательность, точность и т.д.), то есть страдают пользователи. Это злит и подстегивает к созданию более изощренных алгоритмов и техник, — Илья Сегалович, руководитель поиска Яндекса.

Что можно считать серыми методами? Руководствуясь поговоркой «То, что не запрещено — то разрешено», оптимизаторы перебирают множество методов (главный из которых — метод тыка), пытаясь подстроиться под алгоритмы поисковых систем. Одним из таких методов были взаимный обмен ссылками (AB), фреймы на сайтах, спам по форумам, портянки текстов и многое другое.

Данный дизайн заказывался самизнаетекому еще тогда, когда портянки текстов в фреймах не преследовались Яндексом.

Что же такое черные методы продвижения? Также как в Старом и Новом завете (10 заповедей были заменены на две), также и с черными методами существует два правила (от бывшего оптимизатора Александра Садовского):

  1. Не наё... обманывай поисковую систему.
  2. Делайте сайты для пользователей.

Здесь хочется перефразировать фразу «будь проще, и народ к вам потянется». Не потянется. И не народ, а робот. И не проще, а сложнее.

Остается только главный вопрос для таких сайтов: как делать так, чтобы пользователи содержали хотя бы хостинг? Для большинства контентных проектов (у которых нет тысячной посещаемости) это два пути монетизации: контекстная реклама и продажные ссылки.

Наверно все. Может, есть еще что-то, но мне кажется, что остальные задачи являются подзадачами этих 8 задач. Другие задачи поисковых систем, наверно, это: облегчение удобства пользования поисковым интерфейсом (подсказки, опечатки), обеспечение полноты индекса и др. То есть, работая над продвижением сайта (особенно, если вам за это платят несколько тысяч $ в месяц), делайте сайт, учитывающий все вышеприведенные факторы (кроме монетизации).

В статье использованы изображения с блогов SeoPics\.ru и SeoDemotivators.ru спасибо их авторам за оригинальную визуализацию нашей SEO жЫзни.

С наступающим 2010 всех, ваш моем блоге,!


(Голосов: 5, Рейтинг: 5)