×
Россия +7 (495) 139-20-33

«Ответы и вопросы» с Мэттом Катсом на SMX

Россия +7 (495) 139-20-33
Шрифт:
2 4011
Подпишитесь на нас в Telegram

«You&A» — секция конференции SMX Advanced 2008 (The Search Marketing Expo Conference), в ходе которой пользователи могут напрямую задавать вопросы Мэтту Катсу (Matt Cutts) — главе рабочей группы Google Webspam. Как специалист по повышению качества поисковых машин Мэтт с 2000 работает в корпорации Google, где занимается различными вопросами, связанными с разработкой и продвижением веб-сайтов. Его выступления и публикации в блогах знакомы многим ведущим специалистам по поисковому маркетингу.

Модератором конференции выступает Дэнни Салливан (Danny Sullivan), главный редактор Search Engine Land, премодерирование вопросов и ответов осуществляет Алекс Беннерт (Alex Bennert), руководитель отдела обслуживания потребителей корпорации Beyond.

Дэнни открывает конференцию вопросом об инциденте с Линдоном Антклиффом (Lyndon Antcliff), вызвавшим шумиху в электронной прессе, опубликовав информационную «утку». Не слишком ли далеко зашел Антклифф в своем стремлении создать эффективную «приманку» для ссылок? Мэтт объясняет, что проверка подлинности циркулирующих в интернете историй не входит в задачу Google, но выходка Антклиффа — не безобидная первоапрельская шутка. В его публикации не содержалось никакого намека на то, что это фальшивка. Мэтт полагает, что Антклифф ввел публику в заблуждение намеренно, а не по недосмотру.

Мэтт считает, что никак не отреагировать на «утку» такого масштаба было бы просто безответственно. На его взгляд, стремление получить ссылки на свой сайт любой ценой, даже если для этого придется солгать, — ошибочно. На самом деле, действия Google были направлены на то, чтобы защитить пользователей от обмана.

Переходя к вопросу о платных ссылках, Мэтт спрашивает, многие ли готовы рисковать сайтом или даже целой сетью сайтов, размещая платные ссылки на них. Майкл Грей (Michael Gray) с готовностью поднимает руку, но его примеру следуют немногие. Мэтт объясняет, что лучше пользоваться инструментами, способными принести успех в долгосрочной перспективе, а не только сегодня. Не пытайтесь перехитрить поисковые машины — надежность и доверие ценятся в сфере поискового маркетинга куда больше.
Мэтт упоминает о новой публикации в своем блоге, посвященном обновлению документации Google. Прочитать статью можно здесь (в переводе — прим. редакции).

Перейдем к вопросам от пользователей.

1. Первый вопрос касается проблемы использования виджетов в качестве «приманок» для ссылок.

В принципе, линкбейтинг — это не всегда плохо. «Приманка» — то, что побуждает людей размещать ссылку на определенный сайт. Первые виджеты-«приманки», с которыми столкнулись сотрудники Google, представляли собой счетчики посещаемости веб-страниц, содержащие ссылки на никак не связанные с этими страницами сайты.
Разумеется, они разработали ряд алгоритмов, запрещающих использование такого рода счетчиков. Так что использование виджетов, содержащих скрытые ссылки на совершенно посторонние сайты, в Google невозможно.
К сожалению, многие вебмастера даже не знают, чем рискуют, размещая на своих сайтах подобные виджеты. Что касается добровольных ссылок на сайт, размещенных на странице по желанию вебмастера, то они еще должны пройти проверку временем.

2. Следующий вопрос связан с проблемой отображения в выдаче результатов поиска в других поисковых машинах.

Мэтт объясняет, что обычно поисковые машины не заполняют формы, но в некоторых случаях «пауки» все-таки делают это в попытке перейти на другой сайт. Однако если такие ссылки отображаются на странице результатов поиска, их стараются удалять.

3. Дэнни напоминает, что Джейсон Калаканис (Jason Calacanis) позволяет индексировать результаты поисковых запросов в Mahalo, связанных с его сайтом. Допустима ли такая политика?
Мэтт объясняет, что результаты поисковых запросов в Mahalo являются в большей степени контентом, чем простыми результатами поиска.

4. А что насчет клоакинга? В качестве примера приводится ситуация с Amazon.

Мэтт отвечает, что клоакинг — он и есть клоакинг, и подчеркивает, что Google уже удалил из своего индекса крупные сайты, практикующие этот прием. Никогда не прибегайте к клоакингу — это очень рискованно.

5. Зачем нужны наказания типа «минус 60» и другие подобные «минусы»?

Мэтт уклоняется от вопроса, объясняя, что не хочет вдаваться в подробное описание наказаний. Главная цель Google — сделать результаты поиска как можно более релевантными.

6. В развитие темы Дэнни спрашивает, предусмотрены ли наказания разной степени тяжести?

Мэтт отвечает: «Разумеется», — и этим ограничивается.

7. Что можно сказать об управлении ботами? Можно ли считать этот прием столь же неблаговидной стратегией, как клоакинг, проверка IP-адресов и другие «черные» технологии? В качестве примера Дэнни приводит сайт газеты «Wall Street Journal».

Мэтт не рассматривал данную проблему. Он отмечает, что программа «Первый раз — бесплатно», которая позволяет пользователям Google без регистрации читать статьи, размещенные в платном доступе, предусматривает, что первая страница, которую видит пользователь, ничем не отличается от страницы, показанной боту Google. Другими словами, сайт обязан показывать и пользователям, и боту одну и ту же страницу.

8. Как Google отличает платные ссылки от обычных?

Для этого применяются особые алгоритмы. Мэтт объясняет, что для покупки ссылок зачастую используются очень неумелые приемы. Нарушители оставляют «улики», по которым Google с легкостью их выслеживает. Помимо алгоритмов, специалисты стараются применять и индивидуальный подход.

9. Если все ссылки ведут на определенный домен, повышается ли при этом вес сайта в целом?

Мэтту удалось уйти от ответа на этот вопрос, хотя Дэнни переформулировал его тремя разными способами.

10. Могут ли ссылки на сайт, размещенные третьими лицами с использованием незаконных приемов, повредить репутации этого сайта?

Мэтт отвечает, что специалисты Google приняли все меры, чтобы этого не происходило (а значит, оно все-таки происходит — слишком трудно избежать подобной проблемы). Он отмечает, что лучше направить все усилия на развитие собственного сайта, чем на очернение конкурентов.

11. Стоит ли тратить время на формирование структуры сайта в соответствии со спецификой поведения ботов?

Мэтт считает, что в большинстве случаев это излишне — вполне достаточно, если структура сайта будет просто правильной. Лучше потратить время на привлечение хороших ссылок, чем пытаться контролировать алгоритмы PageRank. Тем не менее, ничего опасного в этом нет.

12. Каково это — быть моральным компасом SEO?

Мэтт не считает себя моральным компасом. Он уверен, что в большинстве случаев люди сами понимают, что правильно, а что нет, и спокойно могут обойтись без такого ориентира, как он.
Как обычно, Мэтт не раскрыл никаких страшных тайн. Удивлены? Мы нет. Тем не менее, всегда интересно посмотреть, как Дэнни пытается вытянуть из него хоть один развернутый ответ.


Перевод выполнен при поддержке службы переводов онлайн — PerevodBy.ru.
Баранова С.


Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Гость
    больше года назад
    Ну в общем-то ожидать исчерпывающих ответов от представителя Google было бы глупо:)
    -
    1
    +
    Ответить
  • Гость
    больше года назад
    Интервью американского "Садовского". Один в один :)
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Примеры использования ChatGPT в SEO-стратегии
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Если кто то хочет протестировать Cat GPT в SЕО проектах на базе нашего агенства, приглашаем наудалкнную работу Tg: @thegoodlink
Почему сайтам нужно переезжать с конструкторов на полноценные CMS
Анна
1
комментарий
0
читателей
Полный профиль
Анна - Ха, занятно. А я еще видела полезное описание тут digitalproweb.ru/sozdanie-sajtov-vybrat-konstruktory-ili-cms
Как мы увеличили для клиента трафик из поиска в 7 раз. Кейс
Кирилл Половников
2
комментария
0
читателей
Полный профиль
Кирилл Половников - Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией. Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Как показывать рекламу посетителям сайтов конкурентов
Павел
2
комментария
0
читателей
Полный профиль
Павел - Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов. Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Чек-лист: как настроить рекламу в Яндекс Директе и избежать ошибок
Сергей Ильин
2
комментария
0
читателей
Полный профиль
Сергей Ильин - я ваще не туда написал
Как в перегретой нише получать заявки и добиться конверсии в 19%
ZRZ8GCHIZ6 www.yandex.ru
1
комментарий
0
читателей
Полный профиль
ZRZ8GCHIZ6 www.yandex.ru - ZRZ8GCHIZ6 www.yandex.ru
В поисках истины: разбираем 7 мифов о Telegram Ads
Konstantin Bulgakov
12
комментариев
0
читателей
Полный профиль
Konstantin Bulgakov - Жаль, про аналитику кампании ничего не сказано. А там всё очень непросто)
Можно ли продвигать сайт спонсорскими ссылками: разбор кейса
Александр
1
комментарий
0
читателей
Полный профиль
Александр - Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.
Как продвигать интернет-магазин в поисковой выдаче, если она забита маркетплейсами
Олег
1
комментарий
0
читателей
Полный профиль
Олег - Так как все-таки продвигать?)
Как избавиться от нецелевых клиентов и увеличить количество заявок на 17%. Кейс
Олег
1
комментарий
0
читателей
Полный профиль
Олег - Константин, добрый день! На старте показатель CPL был 2730 руб , стал 1750 руб.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
117
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
64
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!