×
Россия +7 (495) 139-20-33

«Ответы и вопросы» с Мэттом Катсом на SMX

Россия +7 (495) 139-20-33
Шрифт:
2 3014

«You&A» — секция конференции SMX Advanced 2008 (The Search Marketing Expo Conference), в ходе которой пользователи могут напрямую задавать вопросы Мэтту Катсу (Matt Cutts) — главе рабочей группы Google Webspam. Как специалист по повышению качества поисковых машин Мэтт с 2000 работает в корпорации Google, где занимается различными вопросами, связанными с разработкой и продвижением веб-сайтов. Его выступления и публикации в блогах знакомы многим ведущим специалистам по поисковому маркетингу.

Модератором конференции выступает Дэнни Салливан (Danny Sullivan), главный редактор Search Engine Land, премодерирование вопросов и ответов осуществляет Алекс Беннерт (Alex Bennert), руководитель отдела обслуживания потребителей корпорации Beyond.

Дэнни открывает конференцию вопросом об инциденте с Линдоном Антклиффом (Lyndon Antcliff), вызвавшим шумиху в электронной прессе, опубликовав информационную «утку». Не слишком ли далеко зашел Антклифф в своем стремлении создать эффективную «приманку» для ссылок? Мэтт объясняет, что проверка подлинности циркулирующих в интернете историй не входит в задачу Google, но выходка Антклиффа — не безобидная первоапрельская шутка. В его публикации не содержалось никакого намека на то, что это фальшивка. Мэтт полагает, что Антклифф ввел публику в заблуждение намеренно, а не по недосмотру.

Мэтт считает, что никак не отреагировать на «утку» такого масштаба было бы просто безответственно. На его взгляд, стремление получить ссылки на свой сайт любой ценой, даже если для этого придется солгать, — ошибочно. На самом деле, действия Google были направлены на то, чтобы защитить пользователей от обмана.

Переходя к вопросу о платных ссылках, Мэтт спрашивает, многие ли готовы рисковать сайтом или даже целой сетью сайтов, размещая платные ссылки на них. Майкл Грей (Michael Gray) с готовностью поднимает руку, но его примеру следуют немногие. Мэтт объясняет, что лучше пользоваться инструментами, способными принести успех в долгосрочной перспективе, а не только сегодня. Не пытайтесь перехитрить поисковые машины — надежность и доверие ценятся в сфере поискового маркетинга куда больше.
Мэтт упоминает о новой публикации в своем блоге, посвященном обновлению документации Google. Прочитать статью можно здесь (в переводе — прим. редакции).

Перейдем к вопросам от пользователей.

1. Первый вопрос касается проблемы использования виджетов в качестве «приманок» для ссылок.

В принципе, линкбейтинг — это не всегда плохо. «Приманка» — то, что побуждает людей размещать ссылку на определенный сайт. Первые виджеты-«приманки», с которыми столкнулись сотрудники Google, представляли собой счетчики посещаемости веб-страниц, содержащие ссылки на никак не связанные с этими страницами сайты.
Разумеется, они разработали ряд алгоритмов, запрещающих использование такого рода счетчиков. Так что использование виджетов, содержащих скрытые ссылки на совершенно посторонние сайты, в Google невозможно.
К сожалению, многие вебмастера даже не знают, чем рискуют, размещая на своих сайтах подобные виджеты. Что касается добровольных ссылок на сайт, размещенных на странице по желанию вебмастера, то они еще должны пройти проверку временем.

2. Следующий вопрос связан с проблемой отображения в выдаче результатов поиска в других поисковых машинах.

Мэтт объясняет, что обычно поисковые машины не заполняют формы, но в некоторых случаях «пауки» все-таки делают это в попытке перейти на другой сайт. Однако если такие ссылки отображаются на странице результатов поиска, их стараются удалять.

3. Дэнни напоминает, что Джейсон Калаканис (Jason Calacanis) позволяет индексировать результаты поисковых запросов в Mahalo, связанных с его сайтом. Допустима ли такая политика?
Мэтт объясняет, что результаты поисковых запросов в Mahalo являются в большей степени контентом, чем простыми результатами поиска.

4. А что насчет клоакинга? В качестве примера приводится ситуация с Amazon.

Мэтт отвечает, что клоакинг — он и есть клоакинг, и подчеркивает, что Google уже удалил из своего индекса крупные сайты, практикующие этот прием. Никогда не прибегайте к клоакингу — это очень рискованно.

5. Зачем нужны наказания типа «минус 60» и другие подобные «минусы»?

Мэтт уклоняется от вопроса, объясняя, что не хочет вдаваться в подробное описание наказаний. Главная цель Google — сделать результаты поиска как можно более релевантными.

6. В развитие темы Дэнни спрашивает, предусмотрены ли наказания разной степени тяжести?

Мэтт отвечает: «Разумеется», — и этим ограничивается.

7. Что можно сказать об управлении ботами? Можно ли считать этот прием столь же неблаговидной стратегией, как клоакинг, проверка IP-адресов и другие «черные» технологии? В качестве примера Дэнни приводит сайт газеты «Wall Street Journal».

Мэтт не рассматривал данную проблему. Он отмечает, что программа «Первый раз — бесплатно», которая позволяет пользователям Google без регистрации читать статьи, размещенные в платном доступе, предусматривает, что первая страница, которую видит пользователь, ничем не отличается от страницы, показанной боту Google. Другими словами, сайт обязан показывать и пользователям, и боту одну и ту же страницу.

8. Как Google отличает платные ссылки от обычных?

Для этого применяются особые алгоритмы. Мэтт объясняет, что для покупки ссылок зачастую используются очень неумелые приемы. Нарушители оставляют «улики», по которым Google с легкостью их выслеживает. Помимо алгоритмов, специалисты стараются применять и индивидуальный подход.

9. Если все ссылки ведут на определенный домен, повышается ли при этом вес сайта в целом?

Мэтту удалось уйти от ответа на этот вопрос, хотя Дэнни переформулировал его тремя разными способами.

10. Могут ли ссылки на сайт, размещенные третьими лицами с использованием незаконных приемов, повредить репутации этого сайта?

Мэтт отвечает, что специалисты Google приняли все меры, чтобы этого не происходило (а значит, оно все-таки происходит — слишком трудно избежать подобной проблемы). Он отмечает, что лучше направить все усилия на развитие собственного сайта, чем на очернение конкурентов.

11. Стоит ли тратить время на формирование структуры сайта в соответствии со спецификой поведения ботов?

Мэтт считает, что в большинстве случаев это излишне — вполне достаточно, если структура сайта будет просто правильной. Лучше потратить время на привлечение хороших ссылок, чем пытаться контролировать алгоритмы PageRank. Тем не менее, ничего опасного в этом нет.

12. Каково это — быть моральным компасом SEO?

Мэтт не считает себя моральным компасом. Он уверен, что в большинстве случаев люди сами понимают, что правильно, а что нет, и спокойно могут обойтись без такого ориентира, как он.
Как обычно, Мэтт не раскрыл никаких страшных тайн. Удивлены? Мы нет. Тем не менее, всегда интересно посмотреть, как Дэнни пытается вытянуть из него хоть один развернутый ответ.


Перевод выполнен при поддержке службы переводов онлайн — PerevodBy.ru.
Баранова С.


(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Гость
    больше года назад
    Ну в общем-то ожидать исчерпывающих ответов от представителя Google было бы глупо:)
    -
    1
    +
    Ответить
  • Гость
    больше года назад
    Интервью американского "Садовского". Один в один :)
    -
    1
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Михаил Мухин
15
комментариев
0
читателей
Полный профиль
Михаил Мухин - Здравствуйте! 1-2. Считает стенд. Ссылка на него дана, но могу повторить: online.p-c-l.ru/competition/task/card/id/106. Нажмите на кнопку "Начать" и заранее приготовьте прогноз бюджета Яндекс. Суть расчета: перебор комбинаций всех ставок на всех фразах, построение бюджетных когорт - бюджетов с одинаковым СРС, отбор в каждой когорте бюджета с максимальным количеством кликов и ..., да упорядочивание этих бюджетов по мере возрастания СРС, причем берем не все, а с фиксированным шагом. 3. Гугл считается через поправочные коэффициенты. Мы перевариваем океан данных и представляем их. На удивление, получается не менее, хотя и не более точно, как и прогноз Яндекс. Конечно, нужно понимать, что это очень примерные прикидки, фактически перевод неточного прогноза Яндекс в удобочитаемую форму, не больше. Самое интересное начинается, когда применяешь метод бюджетных когорт к измерению показателей фраз на реальной рекламной кампании в режиме 48х7. Первые результаты очень хорошие. Если хотите присоединиться к бесплатному тестированию, напишите Эльвире r-support@r-broker.ru. В теме укажите "хочу присоединиться к тестам Умного управления рекламой"
Ссылочное продвижение локальных сайтов: ТОП худших SEO-методов
demimurych
8
комментариев
0
читателей
Полный профиль
demimurych - о господи. это для регионального сайта? в яндексе? где у сайта по региону конкурентов меньше чем выдачи на двух страницах из которых перваш это реклама москвы? потешно ей богу. ктото чего то не понеимает.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
Зачем подменять контент на сайте: разбираем инструмент и развенчиваем мифы
Дмитрий Сульман
4
комментария
0
читателей
Полный профиль
Дмитрий Сульман - Все верно, об этом я и говорю. У крупных компаний есть много данных и они имеют доступ к дорогим технологиям и решениям для персонализации контента. Топовые западные сервисы для персонализации, такие как RichRelevance или Dynamic Yield, стоят от нескольких тысяч до десятков тысяч долларов в месяц. Понятно, что малый бизнес не может себе этого позволить. Да даже если бы чисто теоретически и мог, то это вряд ли бы имело хоть какой-то смысл. Во-первых, у малого бизнеса недостаточно данных, чтобы подобные алгоритмы персонализации начали эффективно работать, а во-вторых, тот профит, который МСБ получит от персонализации, никогда не покроет таких расходов. Мы же предлагаем решение, доступное как раз для малого и среднего бизнеса. При этом наше решение комплексное: МультиЧат - это одновременно и инструмент для персонализации, и для коммуникации.
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Монетизируйте свой сайт вместе с VIZTROM
VIZTROM
3
комментария
0
читателей
Полный профиль
VIZTROM - Добрый день! Так как мы сейчас работаем в приватном режиме, Вы врятли можете объективно оценить нашу рекламную площадку. У нас будет официальный запуск 3 марта для вебмастеров. Приглашаем Вас присоединиться к нам и лично посмотреть наш функционал.
Digital-разговор: Михаил Шакин про SEO, Google и заработок в интернете
Анна Макарова
368
комментариев
0
читателей
Полный профиль
Анна Макарова - Подготовим ) Пока предлагаю почитать интервью с Денисом Нарижным из той же серии. Там стенограмма =) www.seonews.ru/interviews/digital-razgovor-denis-narizhnyy-pro-ukhod-iz-seo-i-zarabotok-na-partnerkakh/
Как удвоить выручку за счет продвижения в поиске. Кейс coffee-butik.ru
Максим Боровой
3
комментария
0
читателей
Полный профиль
Максим Боровой - Последний вопрос (извиняюсь за количество) - почему на "В корзину" стоит Nofollow. Осознанно для распределение весов?
Кейс Hansa: как увеличить органический трафик в 1,5 раза
Алексей Порфирьев
3
комментария
0
читателей
Полный профиль
Алексей Порфирьев - Спасибо за замечание, о данной проблеме известно, но она не стоит в порядке приоритетных. Вопрос, на самом деле, дискуссионный. В тематике конкуренция не настолько велика, а в топе выдачи часто встречаются сайты с более серьёзными техническими проблемами. По этому, именно в статьях, более важно работать над релевантностью контента, отношением времени пользователя на странице к уровню доскрола, и различным пользовательским функционалом (рейтинг материала, просмотры и т. п.).
Автоматические SEO-аудиты: как напугать некорректными выводами
SEOquick
38
комментариев
0
читателей
Полный профиль
SEOquick - Парсинг сайтов – это самый лучший способ автоматизировать процесс сбора и сохранения информации. Конкурентов всегда нужно мониторить, а не сравнивать свой сайт через автоматический аудит анализатора.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
368
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
139
Комментариев
121
Комментариев
108
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
85
Комментариев
80
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!