«Переоптимизация» Яндекса, или как подружиться с новым фильтром. Что нужно знать о плотности ключевых слов?
После анонса введения нового переспам-фильтра Яндекса многие вебмастера в отчаянии схватились за головы, а копирайтеры с упоением вздохнули свободно: «Долой ТЗ, перенасыщенные грудой ключевиков, да здравствуют человекоподобные тексты!» Для пущего буйства страстей Яндекс даже открыл доступ к своей тестовой площадке (
Словом, одних анонс расстроил, других — обрадовал, а третьих — оставил в замешательстве, ведь, по сути, переоптимизация — штука весьма и весьма условная. Когда шумиха постепенно улеглась, и перед сеошниками, и перед копирайтерами остро встал один вопрос: как писать тексты дальше? Скупую рекомендацию Яндекса «Пишите тексты для людей» никто в расчет, ясное дело, не брал, потому что в топе и без того тесно, а текст для человека написать — не проблема.
В связи с нововведением в Сети появилась масса информации, различного рода экспериментов, советов, рекомендаций, поэтому разводить общую демагогию, о которой и без того много написано, сейчас смысла нет. В этой статье я поделюсь своими наблюдениями, на которые я обратил внимание при ведении собственного блога.
Особенности ведения блога и типы «заточенных» постов
Конечно, существует масса факторов, влияющих на позиции сайта: возраст, наличие внешних ссылок, частотность запроса и прочее, поэтому для пущей объективности удобнее всего сравнивать страницы сами с собой: до введения нового алгоритма и после.
У меня было некоторое количество страниц в топе по запросам до введения алгоритма. При проверке через «тестовый полигон» Яндекса, часть осталась на тех же позициях, что и была, часть спустилась вниз на несколько пунктов, а часть я упорно пытался найти в результатах выдачи, но так и не нашел.
Поскольку основная масса постов на блоге носит прикладной характер, я старался писать их просто, доступно и понятно. Некоторые целевые посты я «затачивал» под конкретные запросы, чтобы привлечь поисковый трафик. Плотность ключевых слов составляла порядка 2-5%. Проанализировав такие статьи, я выделил из них несколько типов.
Тип постов № 1
Статьи с равномерной повышенной (~4-5%) плотностью распределения ключевых слов. В таких статьях я старался использовать максимум прямых вхождений и распределял их равномерно по всему объему материала. Стоит отметить, что прямые вхождения я старался использовать не только в основных пластах текста, но и в подзаголовках.
Результат: около 80% постов «выпали», остальные сместились вниз в результатах выдачи.
Тип постов № 2
Этот тип материалов содержал умеренное количество ключевых слов (порядка 1,2-1,5%) и разнообразие словоформ в самом тексте (в отличие от материалов первого типа, в которых плотность была в разы большей, и словоформ практически не было — только прямые вхождения).
В обязательном порядке присутствовали прямые вхождения в такие элементы страницы как:
- Тайтл
- Заголовок
- Подзаголовки
Результат: материалы, в основной своей массе, остались на прежних позициях.
Тип постов № 3
Этот тип статей, по сути, представляет собой сочетание предыдущих двух типов: обилие словоформ, равномерное распределение ключевых слов, плотность прямых вхождений — около 2–2,5%, прямые вхождения в тайтле, заголовке и подзаголовках.
Результат: часть постов осталась на своих позициях, часть выпала, но затем через три-четыре недели большая часть выпавших вернулась на свои места.
Тип постов № 4
Посты с неравномерным наполнением ключевыми словами, которые, как правило, «затачивались» сразу под несколько запросов. Каждому запросу соответствовала заданная часть текста, которая наполнялась 5–7% ключевиков (относительно объема текстовой части, а не статьи в целом).
Результат: такие посты вылетели из поиска со свистом и, в отличие от третьего типа постов, не возвращались.
Для наглядности динамика изменений для различных типов постов представлена на графике.
Выводы
Таким образом, из результатов эксперимента можно сделать два общих вывода о том, что алгоритм очень негативно относится к:
- Переспаму по всему тексту в целом
- Неестественному переспаму по отдельным фрагментам текста
В контексте SEO можно сделать следующие выводы:
- Сложно продвигать несколько запросов на страницу, особенно если эти запросы между собой никак не пересекаются.
- Заметно сузилось значение текстовых факторов ранжирования и, как результат, пространство для экспериментов на текстовых параметрах: писать приходится с учетом восприятия пользователей: в противном случае на весь сайт могут быть наложены ограничения фильтра.
- Требуется менять подход к созданию SEO-текста: снизить плотность ключевых слов, уделить должное внимание их равномерному (естественному) распределению, cделать текст более читабельным.
![]() ![]() ![]() |
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772 Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом. |
![]() ![]() ![]() |
Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой
































