«Ответы и вопросы» с Мэттом Катсом на SMX

Россия+7 (495) 960-65-87
Шрифт:
2 1962

«You&A» — секция конференции SMX Advanced 2008 (The Search Marketing Expo Conference), в ходе которой пользователи могут напрямую задавать вопросы Мэтту Катсу (Matt Cutts) — главе рабочей группы Google Webspam. Как специалист по повышению качества поисковых машин Мэтт с 2000 работает в корпорации Google, где занимается различными вопросами, связанными с разработкой и продвижением веб-сайтов. Его выступления и публикации в блогах знакомы многим ведущим специалистам по поисковому маркетингу.

Модератором конференции выступает Дэнни Салливан (Danny Sullivan), главный редактор Search Engine Land, премодерирование вопросов и ответов осуществляет Алекс Беннерт (Alex Bennert), руководитель отдела обслуживания потребителей корпорации Beyond.

Дэнни открывает конференцию вопросом об инциденте с Линдоном Антклиффом (Lyndon Antcliff), вызвавшим шумиху в электронной прессе, опубликовав информационную «утку». Не слишком ли далеко зашел Антклифф в своем стремлении создать эффективную «приманку» для ссылок? Мэтт объясняет, что проверка подлинности циркулирующих в интернете историй не входит в задачу Google, но выходка Антклиффа — не безобидная первоапрельская шутка. В его публикации не содержалось никакого намека на то, что это фальшивка. Мэтт полагает, что Антклифф ввел публику в заблуждение намеренно, а не по недосмотру.

Мэтт считает, что никак не отреагировать на «утку» такого масштаба было бы просто безответственно. На его взгляд, стремление получить ссылки на свой сайт любой ценой, даже если для этого придется солгать, — ошибочно. На самом деле, действия Google были направлены на то, чтобы защитить пользователей от обмана.

Переходя к вопросу о платных ссылках, Мэтт спрашивает, многие ли готовы рисковать сайтом или даже целой сетью сайтов, размещая платные ссылки на них. Майкл Грей (Michael Gray) с готовностью поднимает руку, но его примеру следуют немногие. Мэтт объясняет, что лучше пользоваться инструментами, способными принести успех в долгосрочной перспективе, а не только сегодня. Не пытайтесь перехитрить поисковые машины — надежность и доверие ценятся в сфере поискового маркетинга куда больше.
Мэтт упоминает о новой публикации в своем блоге, посвященном обновлению документации Google. Прочитать статью можно здесь (в переводе — прим. редакции).

Перейдем к вопросам от пользователей.

1. Первый вопрос касается проблемы использования виджетов в качестве «приманок» для ссылок.

В принципе, линкбейтинг — это не всегда плохо. «Приманка» — то, что побуждает людей размещать ссылку на определенный сайт. Первые виджеты-«приманки», с которыми столкнулись сотрудники Google, представляли собой счетчики посещаемости веб-страниц, содержащие ссылки на никак не связанные с этими страницами сайты.
Разумеется, они разработали ряд алгоритмов, запрещающих использование такого рода счетчиков. Так что использование виджетов, содержащих скрытые ссылки на совершенно посторонние сайты, в Google невозможно.
К сожалению, многие вебмастера даже не знают, чем рискуют, размещая на своих сайтах подобные виджеты. Что касается добровольных ссылок на сайт, размещенных на странице по желанию вебмастера, то они еще должны пройти проверку временем.

2. Следующий вопрос связан с проблемой отображения в выдаче результатов поиска в других поисковых машинах.

Мэтт объясняет, что обычно поисковые машины не заполняют формы, но в некоторых случаях «пауки» все-таки делают это в попытке перейти на другой сайт. Однако если такие ссылки отображаются на странице результатов поиска, их стараются удалять.

3. Дэнни напоминает, что Джейсон Калаканис (Jason Calacanis) позволяет индексировать результаты поисковых запросов в Mahalo, связанных с его сайтом. Допустима ли такая политика?
Мэтт объясняет, что результаты поисковых запросов в Mahalo являются в большей степени контентом, чем простыми результатами поиска.

4. А что насчет клоакинга? В качестве примера приводится ситуация с Amazon.

Мэтт отвечает, что клоакинг — он и есть клоакинг, и подчеркивает, что Google уже удалил из своего индекса крупные сайты, практикующие этот прием. Никогда не прибегайте к клоакингу — это очень рискованно.

5. Зачем нужны наказания типа «минус 60» и другие подобные «минусы»?

Мэтт уклоняется от вопроса, объясняя, что не хочет вдаваться в подробное описание наказаний. Главная цель Google — сделать результаты поиска как можно более релевантными.

6. В развитие темы Дэнни спрашивает, предусмотрены ли наказания разной степени тяжести?

Мэтт отвечает: «Разумеется», — и этим ограничивается.

7. Что можно сказать об управлении ботами? Можно ли считать этот прием столь же неблаговидной стратегией, как клоакинг, проверка IP-адресов и другие «черные» технологии? В качестве примера Дэнни приводит сайт газеты «Wall Street Journal».

Мэтт не рассматривал данную проблему. Он отмечает, что программа «Первый раз — бесплатно», которая позволяет пользователям Google без регистрации читать статьи, размещенные в платном доступе, предусматривает, что первая страница, которую видит пользователь, ничем не отличается от страницы, показанной боту Google. Другими словами, сайт обязан показывать и пользователям, и боту одну и ту же страницу.

8. Как Google отличает платные ссылки от обычных?

Для этого применяются особые алгоритмы. Мэтт объясняет, что для покупки ссылок зачастую используются очень неумелые приемы. Нарушители оставляют «улики», по которым Google с легкостью их выслеживает. Помимо алгоритмов, специалисты стараются применять и индивидуальный подход.

9. Если все ссылки ведут на определенный домен, повышается ли при этом вес сайта в целом?

Мэтту удалось уйти от ответа на этот вопрос, хотя Дэнни переформулировал его тремя разными способами.

10. Могут ли ссылки на сайт, размещенные третьими лицами с использованием незаконных приемов, повредить репутации этого сайта?

Мэтт отвечает, что специалисты Google приняли все меры, чтобы этого не происходило (а значит, оно все-таки происходит — слишком трудно избежать подобной проблемы). Он отмечает, что лучше направить все усилия на развитие собственного сайта, чем на очернение конкурентов.

11. Стоит ли тратить время на формирование структуры сайта в соответствии со спецификой поведения ботов?

Мэтт считает, что в большинстве случаев это излишне — вполне достаточно, если структура сайта будет просто правильной. Лучше потратить время на привлечение хороших ссылок, чем пытаться контролировать алгоритмы PageRank. Тем не менее, ничего опасного в этом нет.

12. Каково это — быть моральным компасом SEO?

Мэтт не считает себя моральным компасом. Он уверен, что в большинстве случаев люди сами понимают, что правильно, а что нет, и спокойно могут обойтись без такого ориентира, как он.
Как обычно, Мэтт не раскрыл никаких страшных тайн. Удивлены? Мы нет. Тем не менее, всегда интересно посмотреть, как Дэнни пытается вытянуть из него хоть один развернутый ответ.


Перевод выполнен при поддержке службы переводов онлайн — PerevodBy.ru.
Баранова С.


Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Гость
    больше года назад
    Ну в общем-то ожидать исчерпывающих ответов от представителя Google было бы глупо:)
    -
    1
    +
    Ответить
  • Гость
    больше года назад
    Интервью американского "Садовского". Один в один :)
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
SEOnews и Serpstat запускают конкурс для интернет-маркетологов
Marina Lagutina
1
комментарий
0
читателей
Полный профиль
Marina Lagutina - Добрый день! Видимо я из тех, кто пытается последней вскочить в уходящий поезд. Ночью написала статью на тему "обзор инструментов контент-маркетинга". Своего блога нет. Отправила вам не мейл. Я еще могу у вас разместиться или искать, кто возьмет статью к себе в блог?
«Я оптимизировал сайт, а он не в ТОП! Что делать?»
Павел Горбунов
7
комментариев
0
читателей
Полный профиль
Павел Горбунов - Как можно в инструменте tools.pixelplus.ru/tools/text-natural сравнить текст со страницы конкурента и со своей страницы? Я вижу возможность только для проверки одного урла.
Монетизация сайта. Как, когда, сколько?
Гость2
1
комментарий
0
читателей
Полный профиль
Гость2 - Руслан! Спасибо за ваш сервис и за данную статью в частности! С апреля являюсь вашим пользователем - очень доволен как сервисом, так и уровнем заработка! Еще раз спасибо, удачи вашему проекту!
Мир глазами поисковых систем
Александр Рунов
7
комментариев
0
читателей
Полный профиль
Александр Рунов - Какой регион, если не секрет? В Мск, в ряде ВК тематик (в тех же "окнах" или "колесах"), без работы с внешними факторами по ВЧ запросам в ТОП не выплывешь. Хотя в большинстве направлений вполне реально.
Влияние HTTPS на ранжирование региональных поддоменов в Яндексе
Екатерина Иванова
1
комментарий
0
читателей
Полный профиль
Екатерина Иванова - Посмотрите на сколько упал трафик и на сколько потом вырос:упал на 10-20% на 1 месяц, а вырос в итоге в 5 раз. Одним мартовским трафиком всё падение перекрыли. Или можно ждать Яндекс неопределённое количество времени со стартовым уровнем трафика. Упущенные возможности и всё-такое.
Google.ru внесли в реестр запрещенных сайтов
Гость
1
комментарий
0
читателей
Полный профиль
Гость - Гон, все работает и будет работать. Да и пусть банят, будет как с рутрекером.
День рождения SEOnews: 12 лет в эфире!
Анна Макарова
308
комментариев
0
читателей
Полный профиль
Анна Макарова - Ура )
7 причин не работать на биржах копирайтинга
Dasha Shkaruba
6
комментариев
0
читателей
Полный профиль
Dasha Shkaruba - Спасибо за мнение! Кстати, на бирже главреда прием анкет закрыт
Инфографика: самые распространенные SEO-ошибки Рунета
Alex Wise
3
комментария
0
читателей
Полный профиль
Alex Wise - Спасибо, Женя, за рекомендацию! :) Андрей, чтобы понять, какой программой пользоваться, нужно сделать несколько вещей: 1. Попробовать обе: у нас в Netpeak Spider бесплатный триал на 14 дней с полным функционало; у SFSS до 500 URL всегда бесплатно, но с ограниченным функционалом. 2. Понять свой стиль работы – если вы любите полный контроль и из-за этого более высокую скорость пробивки, тогда выбирайте Netpeak Spider. Если для вас не так важна скорость и количество пробитых URL, то можно остановиться на SFSS. 3. Определиться с нужными функциями: их в обоих программах очень много и как в Netpeak Spider есть уникальные, так и в SFSS есть свои уникальные. Мы всегда ориентируемся на то, чтобы быстро и чётко показать ошибки – для этого у нас вся таблица красится в соответствующие цвета. Думайте!) И, если что, обращайтесь с вопросами – мы будем рады помочь!)
Интеграция call tracking и CRM: углубленный анализ данных о звонках и продажах
Денис
2
комментария
0
читателей
Полный профиль
Денис - Какой смысл вообще в облачных CRM, обрезанный фугкционал, свое дописать невозможно, слив клиентов другим компаниям. Серверные бесплатные CRM куда надежней и кастамизируй как хочешь.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
308
Комментариев
262
Комментариев
224
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
97
Комментариев
97
Комментариев
95
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
55
Комментариев
53
Комментариев
52
Комментариев
46

Отправьте отзыв!
Отправьте отзыв!