×
Россия +7 (495) 139-20-33

Новый алгоритм Яндекса выкидывает из индекса качественные сайты?

Россия +7 (495) 139-20-33
Шрифт:
7 6361

Новый алгоритм яндекса выкидывает из индекса качественные сайты? оптимизаторы беспокоятся, насколько точно алгоритм будет отличать оригинальный контент от копипаста в будущем. В комментарии для SearchEngines.ru руководитель группы разработки робота компании Яндекс Роман Грачёв говорит: «Сокращение количества проиндексированных Яндексом страниц связано с внедрением нового алгоритма удаления дублей. Это внедрение позволит показывать на выдаче больше разнообразного контента».

Внедрение нового алгоритма оптимизаторы обсуждают и на форуме SearchEngines.ru. В алгоритме удаления дублей видят как плюсы, так и минусы. Естественно, что новый  алгоритм поможет очистить сеть, но с другой стороны, могут пострадать сайты с оригинальным контентом. И если пока это была только пробная зачистка, то в будущем можно ждать массовых удалений. Александр Шокуров, руководитель отдела поисковой рекламы агентства интернет-рекламы i-Media, пока не делает прогнозов о количестве сайтов, которые могут выпасть из индекса поисковой системы Яндекс. «Выводы о новом алгоритме Яндекса и его точности можно будет сделать в  ближайшие 2-3 недели», - считает Александр.

Точность определения поисковой системой оригинального и дублированнго контента - вопрос, который беспокоит оптимизаторов больше всего. Специалисты на форуме не верят, что Яндекс сможет точно определить первоисточник: «Вся проблема в том, что Яндекс не может определить сайт близкий к ГС от сайта далекого от ГС».  Точность поисковой системы форумчане оценивают примерно в 15-25%. Уже в первые дни внедрения алгоритма удаления дублей из индекса выскочило много сайтов с уникальным контентом.

Большинство сайтов дублируют контент, чтобы зарегистрироваться в биржах ссылок. «После введения нового алгоритма Яндекса ссылочные биржи понесут серьезные потери; но, думаю, восстановить потери в очередной раз для них не составит труда», - говорит Александр Шокуров.

SEOnews недавно писал о том, что крупные поисковики буржунета объединились в борьбе против дублированного контента. Google, Microsoft, Yahoo и Ask дали вебмастерам возможность выбирать из множества урлов один, который поисковая система будет считать каноническим
(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Случилось что-то важное? Поделитесь новостью с редакцией.


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Руслан Галиулин
    1
    комментарий
    0
    читателей
    Руслан Галиулин
    больше года назад
    Всем привет. Сам недавно столкнулся с такой же бедой. Просыпаюсь и вижу как из более 100 страниц осталось 3, а к вечеру вообще ноль. Начал в панике искать причину. Получилось все наладить без помощи Платона, от которого ждать ответа годами надо. Вот в этом посте расписал что было и что сделал.
    -
    0
    +
    Ответить
  • Николай
    больше года назад
    На личном опыте: раскручивал свой сайт 4 года,(ремонт компьютеров) занял практически более чем по 150 ключевым словам высоко конкурентным первые места, топ 10! И что вы думаете? Яндекс посмотрел что я в директ рекламу не даю, и просто тупо выкинул сайт из индекса, рубонул с плеча и все!!! Перед этим был пробивной звонок, типо почему не даете рекламу в Директ? без каких либо представлений, что якобы мы с Яндекс директ рекламы! Но не кто не спросил даже, приносит ли сайт такую прибыль, ...
    На личном опыте: раскручивал свой сайт 4 года,(ремонт компьютеров) занял практически более чем по 150 ключевым словам высоко конкурентным первые места, топ 10! И что вы думаете? Яндекс посмотрел что я в директ рекламу не даю, и просто тупо выкинул сайт из индекса, рубонул с плеча и все!!! Перед этим был пробивной звонок, типо почему не даете рекламу в Директ? без каких либо представлений, что якобы мы с Яндекс директ рекламы! Но не кто не спросил даже, приносит ли сайт такую прибыль, что бы там рекламироваться! Заблуждения что если сайт раскручен и занимает топ 10, то клиенты попрут, тем более по ремонту компьютеров, если комп сломался, то как человек зайдет в интернет для звонка!! Этих клиентов и денег хватало на наращивание ссылочной массы и покупку статей на наполнение!!!! Вот так Яндекс рубит тоже раскрученные сайты ДЛЯ ЛЮДЕЙ, как они хотят! более 350 статей по ПК,  были познавательными! В тех поддержке Яндекс Вебмастер ответили: (сайт под санкции не попадал, развивайте сайт дальше).... очень смешно и цинично!
    -
    0
    +
    Ответить
  • Александр
    больше года назад
    С этим все ясно, а вот зачем убрали нумерацию и иконки, что бы свой сайт нельзя было найти?
    -
    0
    +
    Ответить
  • Юлия Вронская
    0
    комментариев
    0
    читателей
    Юлия Вронская
    больше года назад
    Нет, конечно, не "Бог с ним"... ошиблись ;) спасибо
    -
    0
    +
    Ответить
  • Олег Сахно
    483
    комментария
    0
    читателей
    Олег Сахно
    больше года назад
    Ну, раз суть ясна, тогда можно было написать: "количество (юнитов|штук|единиц) уменьшилось..."
    -
    0
    +
    Ответить
  • Олег Сахно
    483
    комментария
    0
    читателей
    Олег Сахно
    больше года назад
    Сервис Seo-Analytics приводит данные о количестве страниц в индексной базе, но никак не сайтов.
    -
    0
    +
    Ответить
  • fireone
    14
    комментариев
    0
    читателей
    fireone
    больше года назад
    2 Олег
    Да бог с ним :) Суть то ясна)
    -
    0
    +
    Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Google Data Studio: делаем красивые отчеты по контекстной рекламе для клиентов
Светлана Зубрицкая
1
комментарий
0
читателей
Полный профиль
Светлана Зубрицкая - Нужно убрать пробелы между строк и заменить кавычки на вот такие "
#SEOnews14: мы празднуем – вы получаете подарки!
Анна Макарова
0
комментариев
0
читателей
Полный профиль
Анна Макарова - Гость, добрый день! С победителями мы связывались сразу после розыгрыша. Если мы вам не написали, значит, ваш номер не выпал. Но не расстраивайтесь, у нас обязательно будут новые розыгрыши!
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
Георгий
1
комментарий
0
читателей
Полный профиль
Георгий - Все что рекомендуется в этой статье есть у w.tools. Ни разу не пожалел что подключился. Своя CDN сеть, кеш статики и динамики, минификация js\css и кешируемого html, оптимизация всех типов картинок и еще куча всего полезного. Сайт летает и я не знаю проблем. Могу рекомендовать от души.
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
5
комментариев
0
читателей
Полный профиль
Ann Yaroshenko - Дмитрий, добрый день! Если вы проставили на странице с автозапчастями rel=canonical ( а я вижу в коде, что не проставили) или в HTTP хедере, то бот, как правило: выберит ту страницу главной, которую вы указали в rel=canonical ссылке. Eсли же вы этого не сделали, то бот сам выберит оригинал (алгоритмы, по которым бот это делает, скрыты Googl-ом)
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как вывести сайт в ТОП 10 Google в 2019 году
Ирина
8
комментариев
0
читателей
Полный профиль
Ирина - Работают. Как естественные, так и закупные. >Мои сайты в первую очередь заточены на яндекс Соболезную. >Насколько поисковые алгоритмы с гугловскими у него. Разница в 10 лет. Вон в Яше все долбят на ключи, на вхождения и прочий трэш из древностей. А у Гугла, вон почитайте про eat, ymyl Не все понятно но спасибо за ответы. Я так понимаю что с ссылками деть никто точно не знает) Ну это и хорошо вообщем. Самому разбираться как то интересней. Но не всегда. Есть к примеру 2captcha.com/ru и на него 100к ссылок есть. Ну а смысл какой?
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
8
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
360
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
79
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!