Мэтт Каттс: один из способов избежать негативного SEO
Как справиться с негативным SEO, когда конкуренты закупают ссылки на сайт с некачественных ресурсов? На эту тему порассуждал Мэтт Каттс в своем новом видео. Вопрос, который задал вебмастер из Испании, звучал так:
Недавно я обнаружил, что два порно-сайта ссылаются на мой сайт. Я отклонил эти ссылки с помощью инструмента Disavow и написал администраторам сайтов просьбу удалить ссылки на мой ресурс. Что делать в случаях, когда кто-то, например, мои конкуренты, пытаются навредить плохими обратными ссылками на мой сайт?
По словам Мэтта Каттса, в таких случаях надо поступать именно так, как сделал вебмастер. Необходимо связаться с владельцами некачественных сайтов и попросить их убрать ссылки на свой ресурс. Если люди никак не реагируют на ваши просьбы, откажитесь от плохих ссылок с помощью Disavow. Вы даже можете указать домен, если хотите, чтобы Google полностью игнорировал ссылки с него. После этого вы можете больше ни о чем не беспокоиться, заключает Мэтт Каттс.
Случилось что-то важное? Поделитесь новостью с редакцией.
-
Марал Гаипова,
"от Google пришло письмо что всё ок", трафик и позиции подросли или ничего не изменилось? -
Сергей, пока, наверное, рано говорить, санкции были сняты на прошлой неделе.
-
semenov, а при чём здесь синтаксис robots.txt?
Инструмент называется как раз Google Disavow Tool. -
Согласен! Если и работает, то на Ваш сайт может ссылаться 1000 доменов. И вместо развития сайта придется искать говноссылки.
Я считаю это очень круто. Прогресс на лицо. -
Не далее как вчера общались с seo-специалистами, которые рассказали, что успешно использовали этот инструмент. После того как они обозначили все спамные ссылки в disavow links и написали запрос на пересмотр, от Google пришло письмо что всё ок и ручные санкции с сайта сняты.
-
Очень жаль, что Google До сих пропускает такие ссылки и может начать с ними бороться лишь с помощью обращений веб-мастеров.
И сколько же времени уйдет на то, чтобы найти эти "плохие" ссылки, удалить их сразу или сперва написать владельцам "плохих" сайтов, если ресурс имеет большую ссылочную массу.
Мэтт Каттс одновременно помог, рассказав всем про прогу, с чьей помощью можно избавиться от ссылок, с другой стороны показал насколько еще не идеален Google в этом ...Очень жаль, что Google До сих пропускает такие ссылки и может начать с ними бороться лишь с помощью обращений веб-мастеров.
И сколько же времени уйдет на то, чтобы найти эти "плохие" ссылки, удалить их сразу или сперва написать владельцам "плохих" сайтов, если ресурс имеет большую ссылочную массу.
Мэтт Каттс одновременно помог, рассказав всем про прогу, с чьей помощью можно избавиться от ссылок, с другой стороны показал насколько еще не идеален Google в этом параметре. -
Динар Шакиров, исчерпывающий комментарий. Как часто бывает, в теории все легко и просто, но реалии гораздо интереснее, сложнее и запущенней)
-
А как быть если процесс постоянный... когда новые "левые" ссылки с ГС появляются каждый день?
-
А не плюнуть ли тебе в рот жеваной морковкой, Мэтт Каттс? Чего еще изволишь? Совсем обнаглел уже.
Если правила моего сайта (как правила большинства сайтов СМИ) позволяют использовать публикации сайта всем желающим с использованием ссылки на источник, то я не собираюсь менять правила из-за того, что какой-то Мэтт Каттс придумал эту хрень.
Это работа Гугла определять релевантность и качество. Они видимо не справляются больше, теперь хотят часть работы перенести на пл...А не плюнуть ли тебе в рот жеваной морковкой, Мэтт Каттс? Чего еще изволишь? Совсем обнаглел уже.
Если правила моего сайта (как правила большинства сайтов СМИ) позволяют использовать публикации сайта всем желающим с использованием ссылки на источник, то я не собираюсь менять правила из-за того, что какой-то Мэтт Каттс придумал эту хрень.
Это работа Гугла определять релевантность и качество. Они видимо не справляются больше, теперь хотят часть работы перенести на плечи вебмастеров, чтобы они бесплатно на Гугл работали.
Этот хитрожопый гугловец забыл, что поисковики должны подстраиваться под реалии интернета и находить пути построения качественной поисковой выдачи, а не весь интернет должен подстраиваться под желания отдельно взятого поисковика. Это уже звездная болезнь какая-то у Гугла. Это его и погубит.
































