×
Россия +7 (495) 139-20-33

Почему нынче оптимизируют под все поисковики сразу

Россия +7 (495) 139-20-33
Шрифт:
7 4272

Рэнд Фишкин, CEO и сооснователь < a rel=SEOmoz " style="margin-right: 15px; margin-top: 2px; margin-bottom: 2px;" />Довольно давно (по крайней мере, для онлайн-времени), поисковая оптимизация требовала особых целенаправленных действий по отношению к каждой из поисковых систем. Для Hotbot вам придется дважды повторять каждое ключевое слово в мета-теге keywords, тогда как для Northern Light все несколько по-другому.

Сегодня большинство оптимизаторов работают по принципу дружественности к поисковикам и помня о стандартах – используя разумно ключевые слова, не засоряя поисковики, используя корректные URLы, создавая контент, на который людям захочется ставить ссылки, уделяя внимание SMO, вирусному маркетингу. Эти методы уже относительно укрепились в области SEO. И все же… у многих продолжают возникать вопросы и беспокойство о том, на какие поисковики им нужно нацеливать оптимизацию и почему в одних поисковых системах они занимают лучшую позицию, чем в других. В этой статье я хотел бы побороть эти распространенные страхи.

Под какие поисковые системы следует оптимизировать сайты?

Чтобы ответить на этот вопрос, давайте взглянем на текущих лидеров поиска (согласно SearchEngineLand):

Доли поисковиков в США
Учитывая, что 3 гиганта (Google, Yahoo! and Microsoft) охватывают 95.5% поиска в США и 4 (к названным плюс Ask.com) - 99.4% мирового поиска, вполне объяснимо, что практически никаких усилий не тратят оптимизаторы на мелких игроков. Если к вам приходит 1000 посетителей в день с Google, то потраченные на мелкие поисковики усилия смогут принести вам от силы 10 дополнительных посетителей в день.

Сколь бы это ни казалось очевидным, но есть и из этого правила исключения. Конечно, на рынках за пределами США, ответы будут другими. Канада, Австралия, Новая Зеландия, Великобритания, большая часть Центральной и Южной Америки, Африка и Ближний Восток гугло-центричны (с небольшими вкраплениями Microsoft, Yahoo! and Ask.com). В Азии, как и в России, все выглядит иначе. Вот некоторые примеры лидеров поискового рынка в некоторых странах:
• Китай- Baidu (Google, Yahoo! и Microsoft тоже имели здесь свой вес, но правительство делает все, чтобы сохранить лидерство национального поисковика)
• Корея - Naver
• Россия - Yandex

В ряде стран, таких как Ирландия, Чехия, Эстония и других (с ними можно познакомиться в докладе о мировом рынке поиска за 2007 год (PDF), где лидируют другие поисковые системы.

Помимо вышеуказанных отступлений, существуют также довольно значительные возможности вертикального поиска (в области туризма, шоппинга и видео), которые не контролируются поисковыми гигантами. Также были сделаны серьезные шаги в освоении поиска по блогам, по новостям, а также по финансам и локальному поиску. SEO для таких сайтов, однако, как правило, отличается от традиционных методов оптимизации под поисковики.

В общем и целом, продвигаться нужно все равно в тех поисковиках, которые приносят трафик. В настоящий момент это Google, Yahoo!, Microsoft и Ask.com. Новичкам в SEO бывает удивительно, что для всех них методы продвижения очень похожи. Предлагаю взглянуть вглубь проблемы.

Чем отличается оптимизация под Google, Yahoo! и MSN/Live?

В сущности, немногим. Основные поисковые системы по большей части ведут себя, как и Google в отношении оптимизации (положительно реагируют на хорошую индексируемость, продуманные семантическое ядро и ключевики, чистые URLы, отсутствие дублированного контента и т.д.). Даже использование ключевиков, когда-то сильно отличавшее подходы поисковиков (вы наверняка слышали на SEO-форумах высказывания «Yahoo! любит, чтобы ключевик повторялся в 3 раза чаще, чем Google» ), теперь уже в прошлом. Единственное исключение: MSN/Live, похоже, любит URLы и доменные имена, включающие ключевые слова.

Я бы вам посоветовал сконцентрировать свои усилия на создании дружественного поисковым системам сайта с качественным контентом, на эффективном продвижении его в целевой аудитории, и привлечении как можно большего числа ссылок самыми разными способами. Все поисковики преследуют одной и той же цели – релевантности, поэтому научитесь мыслить, как разработчик поисковых алгоритмов и сделайте сайт, который их пауки с жадностью «съедят» и высоко проранжируют.

Почему я на хорошей позиции в Google, а не в Yahoo! или MSN?

Я думаю, это самый распространенный вопрос, и, по чести, никто на него не сможет дать точный ответ. Google, Yahoo! и MSN/Live все используют разные алгоритмы ранжирования и имеют разные индексные базы. Это значит, что результаты выдачи, естественно, отличаются.

Однако, я не могу не привести хоть какое-то руководство, итак, моя точка зрения такова. Если вы занимаете хорошую позицию в Google, а в Yahoo! или MSN/Live нет, причина может быть в следующем:

• Google больше полагается на авторитетность домена, поэтому даже слабый сайт с некорректной перелинковкой внутренних страниц, будет, вероятно, занимать более высокую позицию в выдаче Google, нежели других поисковиков, если на него ссылается много авторитетных сайтов.
• Google обладает наиболее свежей индексной базой, и имеет возможность находить и учитывать новые ссылки быстрее. Если вы только недавно создали контент или недавно на вас было проставлено много ссылок, неудивительно, что ваша позиция в Google выше.
• Наибольшее значение для Google имеют качественные, хорошие, авторитетные ссылки (одна авторитетная ценится выше, чем много неавторитетных), поэтому в SERP Google пользователи в первую очередь видят страницы и сайты, в истории которых есть авторитетные ссылки.

Почему позиции сайта высокие в Yahoo! или MSN, а в Google нет?

Тут тоже сложно дать однозначный ответ, но я все же выскажу свое мнение.

• Yahoo! не так хорошо, как Google, распознает платные ссылки. Линкофермы, обмен ссылками и даже FFA (Free For All) ссылки (комментарии в блогах и спам гостевых книг) могут иногда принести пользу в Yahoo!, но редко в Google.
• У MSN дела с определением неестественных ссылок еще хуже, нежели у Yahoo!, вплоть до того, что даже выдача по многим коммерческим запросам (и массе некоммерческих) забита сайтами и страницами, продвинутыми за счет ссылок, которые Google бы просто не учитывал.
• Google продолжает использовать алгоритмы, функциональность которых похожа на известную «песочницу» Google. Это значит, что новые сайты, появляющиеся в Google, и старые, перемещающие контент на новые сайты, часто сталкиваются с подобной проверкой на качество в соответствии с обычным Google-алгоритмом. Сегодня этот процесс менее строг, чем был несколько лет назад, однако он вовсе не упразднен.
• Google самый недоверчивый из поисковиков, поэтому если вы резко нарастили ссылочную массу, пусть даже ненамеренно, Google может оштрафовать или лишить ваши ссылки веса, по крайней мере, временно. Я замечаю это особенно часто в случаях, когда бэклинки на определенный сайт имеют абсолютно одинаковый анкор текст, но поисковик может быть недоволен и по другим поводам.

Почему мой сайт на плохой позиции в Ask.com?

Алгоритм ранжирования Ask.com сильно отличается от алгоритмов других ведущих поисковых систем. Если Google, Yahoo! и MSN/Live ориентируются на глобальную авторитетность ресурса, т.е. учитывают все ссылки на сайт, имеющиеся в Сети, то Ask.com опирается на локальную авторитетность, придавая вес только ссылкам с сайтов той же ниши и тематики, что и искомый.

Стоит ли оптимизировать под какие-то другие поисковики?

Если не считать обозначенные в начале статьи случаи с локальными лидерами и тематическими вертикальными поисковиками, ответ будет – не стоит. Altavista, Dogpile, Hotbot, Lycos и подобные просто не оправдают усилий, да и их алгоритмы так или иначе похожи на алгоритмы лидеров поиска.

Однако в будущем положение вещей может измениться. Новые поисковики вроде Wikia, Cuill, Powerset и даже Mahalo пытаются влиться в число лидеров и, возможно, пройдет 2-4 года, и какие-то из них смогут составить конкуренцию Ask.com или MSN/Live.
(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Олег Сахно
    483
    комментария
    0
    читателей
    Олег Сахно
    больше года назад
    Тут очень тонкая грань. Совсем свежий приме: умер Егор Летов. На сайт появилось множество ссылок, буквально в течении дня. Как расценивать это событие? Робот, ведь, не знает что "всё идёт по плану"
    -
    0
    +
    Ответить
  • Гость
    больше года назад
    "Если вы только недавно создали контент или недавно на вас было проставлено много ссылок, неудивительно, что ваша позиция в Google выше."

    и тут же противоречие - "поэтому если вы резко нарастили ссылочную массу, пусть даже ненамеренно, Google может оштрафовать или лишить ваши ссылки веса"
    :)
    -
    0
    +
    Ответить
  • Анастасия Гутникова
    373
    комментария
    0
    читателей
    Анастасия Гутникова
    больше года назад

    Действительно, если вот так поставить рядом эти тезисы, получается противоречие. Сложно судить, что думает на этот счет автор Рэнд Фишкин.
    Единственное, могу сказать, что в первом случае речь шла о том, что в целом Google быстрее других поисковиков индексирует и оценивает новые ссылки на сайт, а во втором рассматривается более частный случай, когда из-за "недоверчивости" Гугля внешние ссылки на сайт теряют вес.
    -
    -1
    +
    Ответить
  • Гость
    больше года назад
    Да, "sem_en" с тобой полностью согласен, встречаются такие ВАСИЛИИ!!! Иногда Василии Петровичи...
    -
    0
    +
    Ответить
  • Гость
    больше года назад
    а почему бы и не под все поисковики продвигать? траф ото всюду нужен
    -
    0
    +
    Ответить
  • informer
    1
    комментарий
    0
    читателей
    informer
    больше года назад
    Ну по суте, алгаритмпоиска у крупных(лидеров) поисковых систем не отличается почти. А трафик нужне, и так как люди пользуеются различными поисковика, но ищут похожее, было бы не разумно делать оптемизацию по один сайт.
    -
    0
    +
    Ответить
  • sem_en
    67
    комментариев
    0
    читателей
    sem_en
    больше года назад
    да какая разница, вот только иногда попадаются тупые заказчики, которые непонятно почему хотят убрать из списка рамблер, например, как будто им платить от этого меньше... хоть говори, хоть кол на башке чеши
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
15
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
8
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
Монетизируйте свой сайт вместе с VIZTROM
VIZTROM
3
комментария
0
читателей
Полный профиль
VIZTROM - Добрый день! Так как мы сейчас работаем в приватном режиме, Вы врятли можете объективно оценить нашу рекламную площадку. У нас будет официальный запуск 3 марта для вебмастеров. Приглашаем Вас присоединиться к нам и лично посмотреть наш функционал.
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
3
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
Digital-разговор: Михаил Шакин про SEO, Google и заработок в интернете
Анна Макарова
368
комментариев
0
читателей
Полный профиль
Анна Макарова - Подготовим ) Пока предлагаю почитать интервью с Денисом Нарижным из той же серии. Там стенограмма =) www.seonews.ru/interviews/digital-razgovor-denis-narizhnyy-pro-ukhod-iz-seo-i-zarabotok-na-partnerkakh/
Почему вы торгуетесь за показы, даже если платите за клики
Константин Требунских
3
комментария
0
читателей
Полный профиль
Константин Требунских - Дмитрий, спасибо за комментарий, хорошие замечания!) 1. "Какая-то подмена понятий. CPM у “Original Works” взлетает не от того, что у них РАВНАЯ цена клика, а оттого, что вы "с потолка" поставили ему CPC в 2 раза выше, чем был. Логично, что и CPM в 2 раза увеличился (см. формулу выше). Если бы вместо 5 вы всем решили поставить 2 или 1.5, то он бы наоборот уменьшился." Вы правы, что CPM уменьшился бы. В первой и второй табличке берем одинаковое количество показов (именно за них мы платим сначала) и считаем данные, в том числе CPC. Мы поставили рекламодателей в одинаковые условия и посмотрели их эффективность в разрезе цены клика при одинаковом количестве показов. А затем изменился аукцион, и, взяв получившиеся данные по кликам и CTR, мы поставили рекламодателей тоже в одинаковое положение, но уже по цене клика, ведь мы теперь за него платим. Посчитали эффективность в разрезе уже CPM. Тут если и есть подмена понятий, то она точно не моя, а рекламных систем, потому и обозначена, как "ход конем" :) 2. "Ок, смотрим таблички "как оно было" и "как оно стало". Было: система суммарно за 2 000 денег показала рекламу 4 000 раз. Стало: система суммарно за 2 000 денег показала рекламу 13 500 раз. Сомнительный профит для системы." Вы правы, именно поэтому для рекламодателей с низким CTR ставка будет выше, чем для рекламодателей с высоким CTR. Просто чтобы система окупилась. Потому что, системе выгодно продавать показы тем, у кого кликов будет больше (ведь они платят за клик). По факту реальные цены за клик в аукционе будут как в таблице 2. Но ранжирование системы проводят по таблице 5.
Кейс Hansa: как увеличить органический трафик в 1,5 раза
Алексей Порфирьев
3
комментария
0
читателей
Полный профиль
Алексей Порфирьев - Спасибо за замечание, о данной проблеме известно, но она не стоит в порядке приоритетных. Вопрос, на самом деле, дискуссионный. В тематике конкуренция не настолько велика, а в топе выдачи часто встречаются сайты с более серьёзными техническими проблемами. По этому, именно в статьях, более важно работать над релевантностью контента, отношением времени пользователя на странице к уровню доскрола, и различным пользовательским функционалом (рейтинг материала, просмотры и т. п.).
Автоматические SEO-аудиты: как напугать некорректными выводами
SEOquick
38
комментариев
0
читателей
Полный профиль
SEOquick - Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
368
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
139
Комментариев
121
Комментариев
108
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
85
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!