Коммерческие сайты под прицелом Google

Россия+7 (495) 960-65-87
Шрифт:
1 12086

На недавней конференции SMX West, глава по борьбе с поисковым спамом Мэтт Каттс сообщил, что к концу этого года Google планирует запустить алгоритм Google Merchant Quality против низкокачественных коммерческих сайтов.

Мэтт предупредил, что владельцы низкокачественных коммерческих сайтов должны быть готовы к возможному понижению в SERP. Это может привести к огромному падению трафика, продаж и доходов этих онлайн-продавцов.

Поскольку формулировка «низкокачественный» весьма расплывчата, мы решили узнать у специалистов:

  • Какие параметры и сигналы о качестве коммерческих сайтов может использовать Google?
  • Какие сайты могут пострадать от введения данного алгоритма?
  • Может ли этот алгоритм серьезно сказаться на выдаче Google в Рунете?

Роман Доброновский, руководитель отдела западных проектов компании Promodo, считает:

Слово «низкокачественный» вполне конкретно для Google и было в своё время очень подробно объяснено в программном посте Амита Сингала - одного из ближайших соратников Мэтта Каттса. Он формулировал позицию Google форме простых на вид вопросов, например: «Доверили бы вы такому сайту номер своей кредитки?». Если не кривить душой, то каждый из нас, бывая в шкуре покупателя, знает ответ на этот и ему подобные вопросы.

Если вынести за скобки самоочевидные вещи вроде уникального контента (это путеводная звезда в борьбе Google против веб-спама), то можно сформулировать несколько основных сигналов, на которые Google будет опираться:

· Почти наверняка поисковик будет опираться в оценках на данные своего коммерческого сервиса Google Shopping: данные о «заслуживающих доверия» магазинах, информацию о полноте, свежести данных в магазинах и т.д.

· Совершенно очевидно, что будут учитываться пользовательские рейтинги, количество отзывов, особенно для локальных магазинов, имеющих уже в готовом виде подобные данные в рамках программы «Google Places for Business».

· Наверняка будут задействованы сильные пользовательские сигналы, завязанные на простоту и удобство пользования сайтом.

Возможно, не все эти вещи будут реализованы сходу, но основные контуры будущей системы, в принципе, ясны.

Олег Саламаха, аналитик в агентстве интернет-маркетинга Netpeak, разделяет мнение Романа о базовых показателях качества коммерческих сайтов:

Можно допустить, что для буржуйнета в качестве основных будут использоваться данные из Google Shopping, а для магазинов, не принимающих участия в данной программе, - накопленные пользовательские факторы и патерны поведения, с помощью которых поисковая система может оценить качество.

Кроме того, думаю, будут влиять такие метрики как:

    • Известность магазина;
    • Отзывы (например, из Google карт);
    • Наличие магазина в офлайне;
    • Активности пользователей - комментариев, оценок товаров и т.д.;
    • Количество повторных транзакций;
    • Отмены транзакций и т.д.
Главное, чего хочет добиться Google - убрать из выдачи «псевдомагазины» и десятки тысяч аффилиатов, которые не несут ценности для конечного покупателя. В группе риска также окажутся те магазины, коммерческие метрики которых гораздо ниже, чем у конкурентов.

Несомненно, данный алгоритм будет внедрен и в Рунете, возможно, не одновременно с буржуйнетом и будет использоваться меньше метрик, но запуск данного алгоритма значительно улучшит коммерческую выдачу.

Случилось что-то важное? Поделитесь новостью с редакцией.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Поделиться 
Поделиться дискуссией:
Отправить отзыв
  • Да
    больше года назад
    "значительно улучшит коммерческую выдачу"

    Даааааааааа, конечно.
    -
    0
    +
    Ответить
    Поделиться
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
SEOnews и Serpstat запускают конкурс для интернет-маркетологов
Marina Lagutina
1
комментарий
0
читателей
Полный профиль
Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
«Я оптимизировал сайт, а он не в ТОП! Что делать?»
Павел Горбунов
7
комментариев
0
читателей
Полный профиль
Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
Монетизация сайта. Как, когда, сколько?
Никита
1
комментарий
0
читателей
Полный профиль
Никита - Благодарю за статью, очень интересно! Обязательно попробую воспользоваться сервисом
Мир глазами поисковых систем
Александр Рунов
7
комментариев
0
читателей
Полный профиль
Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
Екатерина Иванова
1
комментарий
0
читателей
Полный профиль
Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
Google.ru внесли в реестр запрещенных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
Инфографика: самые распространенные SEO-ошибки Рунета
Alex Wise
3
комментария
0
читателей
Полный профиль
Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
Конкурс: угадайте пятерку лидеров рейтинга «SEO глазами клиентов 2017»
Оля
1
комментарий
0
читателей
Полный профиль
Оля - 1 Ingate 2 Wezom 3 Bynjg vtlbf 4 seo energy 5 директ лайн
Интеграция call tracking и CRM: углубленный анализ данных о звонках и продажах
Денис
2
комментария
0
читателей
Полный профиль
Денис - Какой смысл вообще в облачных CRM, обрезанный фугкционал, свое дописать невозможно, слив клиентов другим компаниям. Серверные бесплатные CRM куда надежней и кастамизируй как хочешь.
SEMrush: факторы ранжирования в Google в 2017 году
Анна Макарова
0
комментариев
0
читателей
Полный профиль
Анна Макарова - Уважаемый S1, я тоже понимаю, что есть такие люди, которые заметив допущенную неточность несутся на всех парусах продемонстрировать "силу" своего ума. Спасибо вам за пристальное внимание. Это поможет нам быть лучше.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
300
Комментариев
262
Комментариев
221
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
55
Комментариев
53
Комментариев
52
Комментариев
45

Отправьте отзыв!
Отправьте отзыв!