×
Россия +7 (495) 139-20-33

«Переоптимизация» Яндекса, или как подружиться с новым фильтром. Что нужно знать о плотности ключевых слов?

Россия +7 (495) 139-20-33
Шрифт:
0 3104

После анонса введения нового переспам-фильтра Яндекса многие вебмастера в отчаянии схватились за головы, а копирайтеры с упоением вздохнули свободно: «Долой ТЗ, перенасыщенные грудой ключевиков, да здравствуют человекоподобные тексты!» Для пущего буйства страстей Яндекс даже открыл доступ к своей тестовой площадке (http://buki.yandex.ru), мол, полюбуйтесь, сейчас вы на первом месте, а после введения нового алгоритма... Ну, ну? И где вы? Ага! Нету!

Словом, одних анонс расстроил, других — обрадовал, а третьих — оставил в замешательстве, ведь, по сути, переоптимизация — штука весьма и весьма условная. Когда шумиха постепенно улеглась, и перед сеошниками, и перед копирайтерами остро встал один вопрос: как писать тексты дальше? Скупую рекомендацию Яндекса «Пишите тексты для людей» никто в расчет, ясное дело, не брал, потому что в топе и без того тесно, а текст для человека написать — не проблема.

В связи с нововведением в Сети появилась масса информации, различного рода экспериментов, советов, рекомендаций, поэтому разводить общую демагогию, о которой и без того много написано, сейчас смысла нет. В этой статье я поделюсь своими наблюдениями, на которые я обратил внимание при ведении собственного блога.

Особенности ведения блога и типы «заточенных» постов

Конечно, существует масса факторов, влияющих на позиции сайта: возраст, наличие внешних ссылок, частотность запроса и прочее, поэтому для пущей объективности удобнее всего сравнивать страницы сами с собой: до введения нового алгоритма и после.

У меня было некоторое количество страниц в топе по запросам до введения алгоритма. При проверке через «тестовый полигон» Яндекса, часть осталась на тех же позициях, что и была, часть спустилась вниз на несколько пунктов, а часть я упорно пытался найти в результатах выдачи, но так и не нашел.

Поскольку основная масса постов на блоге носит прикладной характер, я старался писать их просто, доступно и понятно. Некоторые целевые посты я «затачивал» под конкретные запросы, чтобы привлечь поисковый трафик. Плотность ключевых слов составляла порядка 2-5%. Проанализировав такие статьи, я выделил из них несколько типов.

Тип постов № 1

Статьи с равномерной повышенной (~4-5%) плотностью распределения ключевых слов. В таких статьях я старался использовать максимум прямых вхождений и распределял их равномерно по всему объему материала. Стоит отметить, что прямые вхождения я старался использовать не только в основных пластах текста, но и в подзаголовках.

Результат: около 80% постов «выпали», остальные сместились вниз в результатах выдачи.

Тип постов № 2

Этот тип материалов содержал умеренное количество ключевых слов (порядка 1,2-1,5%) и разнообразие словоформ в самом тексте (в отличие от материалов первого типа, в которых плотность была в разы большей, и словоформ практически не было — только прямые вхождения).

В обязательном порядке присутствовали прямые вхождения в такие элементы страницы как:

  1. Тайтл
  2. Заголовок
  3. Подзаголовки

Результат: материалы, в основной своей массе, остались на прежних позициях.

Тип постов № 3

Этот тип статей, по сути, представляет собой сочетание предыдущих двух типов: обилие словоформ, равномерное распределение ключевых слов, плотность прямых вхождений — около 2–2,5%, прямые вхождения в тайтле, заголовке и подзаголовках.

Результат: часть постов осталась на своих позициях, часть выпала, но затем через три-четыре недели большая часть выпавших вернулась на свои места.

Тип постов № 4

Посты с неравномерным наполнением ключевыми словами, которые, как правило, «затачивались» сразу под несколько запросов. Каждому запросу соответствовала заданная часть текста, которая наполнялась 5–7% ключевиков (относительно объема текстовой части, а не статьи в целом).

Результат: такие посты вылетели из поиска со свистом и, в отличие от третьего типа постов, не возвращались.

Для наглядности динамика изменений для различных типов постов представлена на графике.

Выводы

Таким образом, из результатов эксперимента можно сделать два общих вывода о том, что алгоритм очень негативно относится к:

  1. Переспаму по всему тексту в целом
  2. Неестественному переспаму по отдельным фрагментам текста

В контексте SEO можно сделать следующие выводы:

  1. Сложно продвигать несколько запросов на страницу, особенно если эти запросы между собой никак не пересекаются.
  2. Заметно сузилось значение текстовых факторов ранжирования и, как результат, пространство для экспериментов на текстовых параметрах: писать приходится с учетом восприятия пользователей: в противном случае на весь сайт могут быть наложены ограничения фильтра.
  3. Требуется менять подход к созданию SEO-текста: снизить плотность ключевых слов, уделить должное внимание их равномерному (естественному) распределению, cделать текст более читабельным.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Ане Макаровой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
#SEOnews14: мы празднуем – вы получаете подарки!
Анна Макарова
0
комментариев
0
читателей
Полный профиль
Анна Макарова - Гость, добрый день! С победителями мы связывались сразу после розыгрыша. Если мы вам не написали, значит, ваш номер не выпал. Но не расстраивайтесь, у нас обязательно будут новые розыгрыши!
Как ускорить сайт на WordPress, чтобы получить 100/100 в Google PageSpeed Insights
Георгий
1
комментарий
0
читателей
Полный профиль
Георгий - Все что рекомендуется в этой статье есть у w.tools. Ни разу не пожалел что подключился. Своя CDN сеть, кеш статики и динамики, минификация js\css и кешируемого html, оптимизация всех типов картинок и еще куча всего полезного. Сайт летает и я не знаю проблем. Могу рекомендовать от души.
Что скрывает «Прогноз бюджета Яндекс.Директ»?
Андрей Кокорев
2
комментария
0
читателей
Полный профиль
Андрей Кокорев - Ждем результатов. охота понять, правильно ли сделал, а если нет - в чем ошибка. Если по делу: по идее, при оптимизации кампаний стоимость клика должна снижаться, а конверсия рекламного трафика должна увеличиваться (отсекаем нецелевую аудиторию). Т.е. регулярно надо менять вводные данные, чтобы получить оптимальный бюджет на следующий период? Правильно понимаю?
Война с дубликатами. Как нужно и как не нужно канонизировать URL
Ann Yaroshenko
5
комментариев
0
читателей
Полный профиль
Ann Yaroshenko - Дмитрий, добрый день! Если вы проставили на странице с автозапчастями rel=canonical ( а я вижу в коде, что не проставили) или в HTTP хедере, то бот, как правило: выберит ту страницу главной, которую вы указали в rel=canonical ссылке. Eсли же вы этого не сделали, то бот сам выберит оригинал (алгоритмы, по которым бот это делает, скрыты Googl-ом)
«Аудит, чтобы ты заплакала…», или Что делать, когда получил сторонний аудит сайта
Евгений
1
комментарий
0
читателей
Полный профиль
Евгений - Воообще, на самом деле здесь двоякое впечатление от таких аудитов. Конечно, для полного глубокого анализа и подготовки рекомендаций по сайту - нужны доступы к системам аналитики и инструментам вебмастера. Но если оценивать подобные аудиты с точки зрения чистого SEO (которое все больше и больше становится лишь малой частью digital-маркетинга, лишь одним из каналов) - они имеют место быть. Но с оговоркой, что они сделаны с учетом анализа конкурентов/отрасли. Современные инструменты и алгоритмы позволяют делать это маркетологам в автоматическом режиме, и даже давать рекомендации - возможностями машинного обучения уже никого не удивишь. Да, полное перечисление "мифического" списка ошибок, построенного по предикативным правилам, да еще и с учетом устаревших особенностей ПС - это явный признак некачественного аудита. В первую очередь потому, что эти "ошибки" следует рассматривать в качестве рекомендаций от ПС (как и говорится в справочнике вебмастера у Яндекса/Google). Однако если эти данные даются с отсылкой на данные о конкурентах, об отрасли, используются методы ML и Natural language processing для обработки исходных данных, кластеризации запросов, классификации страниц/запросов/сайтов, определения структуры документа - такие отчеты имеют право на существование. Но ключевым моментом является то, что подобные инструменты достаточно сложны в разработке, а значит требуют квалифицированных специалистов для их разработки. Которых просто нет у студий рассылающих подобные "сео отчеты". Подобные отчеты по "ошибках" тоже неплохой источник информации, но лишь на 0 этапе анализа сайта. И в принципе, теоретически, возможно почти полное составление "хороших аудитов" без участия маркетолога, на основе лишь открытых данных сайта/внешних источников, но только при соответствующем применении всех современных возможностей анализа данных и рекомендательных систем. И в любом случае подобный "хороший отчет" требует конечного заключения от эксперта.
От мечты стать юристом к собственному SMM-агентству. Как найти себя в современном цифровом мире
Виктор Брухис
5
комментариев
0
читателей
Полный профиль
Виктор Брухис - Статья выглядит так, как пожелали редакторы и интервьюер) Вопросы к интервью подбирал не я)) Хотя, в целом я согласен с вашим видением. А за пожелание удачи большое спасибо!
BDD 2019: Как перестать убивать время на сбор и обработку тонны данных для SEO-аудита
Kosta Bankovski
4
комментария
0
читателей
Полный профиль
Kosta Bankovski - Спасибо за приятные слова! Буду и дальше делиться наработками ;)
Как провести анализ содержания страниц товаров и категорий
Никита Седнин
3
комментария
0
читателей
Полный профиль
Никита Седнин - Спасибо!
Как вывести сайт в ТОП 10 Google в 2019 году
Ирина
8
комментариев
0
читателей
Полный профиль
Ирина - Работают. Как естественные, так и закупные. >Мои сайты в первую очередь заточены на яндекс Соболезную. >Насколько поисковые алгоритмы с гугловскими у него. Разница в 10 лет. Вон в Яше все долбят на ключи, на вхождения и прочий трэш из древностей. А у Гугла, вон почитайте про eat, ymyl Не все понятно но спасибо за ответы. Я так понимаю что с ссылками деть никто точно не знает) Ну это и хорошо вообщем. Самому разбираться как то интересней. Но не всегда. Есть к примеру 2captcha.com/ru и на него 100к ссылок есть. Ну а смысл какой?
Как построить качественный ссылочный профиль на основе конкурентов
Ирина
8
комментариев
0
читателей
Полный профиль
Ирина - Давно сотрудничаю с megaindex.com и считаю данный сервис одним из лучших в сео сегменте рунета да и не только рунета. Пользуюсь их инструментами для аналитики своих работ и выявлению своих и чужих ошибок. Да и ссылочный профиль, как и говорится в данной статье сделать гораздо проще и правильней при помощи как раз мегаиндекса. Добавлю еще что инструмент для поиска конкурентов у мегаиндекса очень удобный и простой в применении.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
360
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
107
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
79
Комментариев
77
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!