5. Вопрос: В выдаче стали появляться дубликаты страницы, доступные по протоколу https://, которые ранжировались выше оригиналов, но занимали худшие позиции.
Ответ: Решили убрать сайт из индекса. Как оказалось, сделать раздел доступным только для авторизованных пользователей невозможно. Решили попробовать закрыть сайт в robots.txt, получили ответ от службы поддержки Яндекса, что robots.txt для https:\/\/www\.site\.ru\/ и http://www.site.ru/ считается для каждого свой. https:// закрыли, вскоре страницы исключили из выдачи.
6. Вопрос: Неожиданно основная продвигаемая страница (внутряк) выпала из выдачи в Google, соответственно пропали и все позиции. Подождали несколько дней, страница не вернулась
Ответ: На сайте нашли раздел /old/, где размещалась старая версия сайта, с другим дизайном, но содержащая идентичный контент. Ссылок на раздел не стояло, но адрес страницы и информация о ней сохранилась в базе Google и после очередного апдейта он однозначно выбрал её в качестве основной входной. Раздел удалили, закрыли индексацию в robots.txt, через неделю продвигаемая страница вернулась в выдачу, позиции восстановились.
7. Вопрос: Сайт резко потерял позиции, хотя уже 6 месяцев стабильно держал топ.
Ответ: Нашли наследие нескольких лет — страницу с обратными ссылками от 1ps.ru
Страницу удалили, написали письмо в саппорт, через несколько апдейтов позиции восстановились.
8. Вопрос: Сайт периодически терял позиции, но потом резко восстанавливал.
Ответ: При анализе выяснилось, что хостинг сайта периодически отрубался, иногда в это время на сайт заходил бот Яндекса. После смены хостинга позиции сайта стабилизировались.
9. Вопрос: Позиции сайта резко ухудшились, хотя уже 6 месяцев не проводилось никаких работ, кроме незначительной докупки/замены ссылок.
Ответ: Удалось установить, что пароли от хостинга хранились в ненадежном источнике и попали в третьи руки. Как оказалось, на всех страницах сайта был размещен код SAPE в display:none, который невозможно было зафиксировать визуально. На каждой странице стояло 5 и более внешних ссылок. После удаления кода и долгой переписки с саппортом Яндекса позиции удалось восстановить.
10. Вопрос: В 1 месяц продвижения клиента страницы стали стремительно выпадать из индекса, пока не осталось несколько страниц с указанием «найден по ссылке».
Ответ: Оказалось, что сотрудник на стороне клиента, получила рекомендацию, о необходимости замены всех адресов страниц с site.ru на www.site.ru. Для этого были предприняты следующие шаги:
В robots.txt была изменена директива Host на www.site.ru
В результате получилось следующее: Яндекс продолжал считать site.ru главным зеркалом. При попытке зайти на любую страницу сайта, робот получал сигнал, что страница перемещена навсегда. Robots.txt не был прочитан, т.к. бот, при обращении к этому файлу считает положительным ответом только код 200. В результате этого все страницы были удалены из индексной базы. Проблема была достаточно быстро решена: убрали редирект, сайт переиндексировался, зеркало изменилось на www.site.ru
11. Вопрос: Страницы сайта стали выпадать из индекса.
Ответ: Проблема оказалась следствием смены хостинга. Проблема пришлась на скандал с www.mchost.ru, в результате которого сайт клиента несколько дней не работал. Сайт перенесли на www.agava.ru, переписали DNS, но через несколько дней DNS почему-то вернулись на mchost. Через несколько дней вновь включилась агава, но в результате всех этих манипуляций каким-то образом оказалось, что robots.txt с исходного был заменен на
User Agent *
Disallow: /
Вернули прежний robots.txt, сайт вернулся в индекс.
Список можно продолжать ещё очень долго. Некоторые из этих случаев произошли с одним и тем же клиентом.
Теперь отвечаю клиентам на вопрос: Зачем платить деньги оптимизатору, если можно воспользоваться агрегатором?
Работа с внутренними факторами не ограничивается подготовительным этапом. Покупка ссылок — это лишь небольшая часть общих работ. Оплачивая услуги оптимизатора на этапах продвижения и поддержки, вы платите за стабильность результата, а не за количество часов, уделенных вашему сайту. Возможно, всё будет хорошо, и делать ничего не придется, но рано или поздно может настать час икс, когда оптимизатор примет стратегическое решение и сохранит позиции вашего сайта. Может быть, оптимизатору придется принимать подобные решения каждый месяц и проводить большую работу. Заранее это не известно ни клиенту, ни оптимизатору. Именно поэтому нужно платить деньги оптимизатору на этапе продвижения и поддержки.
* Константин Симаков на конференции NetPromoter 2010 спросил у представителей ссылочных агрегаторов, когда те планируют оставить нас, оптимизаторов, без работы. Я полагаю, что никогда.
Друзья, теперь вы можете поддержать SEOnews https://pay.cloudtips.ru/p/8828f772
Ваши донаты помогут нам развивать издание и дальше радовать вас полезным контентом.
Рассказать друзьям:
Нас удобно читать в социальных сетях. Подписывайся!
Я бы добавил что только профессиональный оптимизатор сможет составить оптимальный анкор лист перед закупкой ссылок, позволяющий ЗНАЧИТЕЛЬНО сэкономить ссылочный бюджет. А то что сейчас "генерят" агрегаторы еще в Снежинске устарело.
Павел -
Спасибо за комментарий. Гипотеза была в том, что с указанными счетчиками конкурентов показы будут не просто похожей аудитории их сайтов (как при рекламе по доменам), а именно на аудиторию которую Яндекс для себя разметил как целевая дл сайтов конкурентов.
Важно, это гипотеза. А про белые нитки, как говорится, доверяй, но проверяй))
Кирилл Половников -
Оба этих статуса (редирект и малополезная) преобладали в качестве проблем с индексацией.
Помогла работа с .htaccess (в нем были ошибки и его чистили), работа над корректировкой редиректов, каноникалами и прочими техническими ошибками. Нельзя сказать, что только редиректы были ключевым препятствием.
Мама Стифлера -
Вызывает сожаление, что вы не осознаете, что Яндекс.Советник может быть рассмотрен как форма рэкета, которая заставляет компании, размещающиеся в Яндекс.Маркете, выплачивать дополнительные финансовые средства, повышая в конечном итоге прибыль Яндекс.Маркета, но не принесет пользы для посетителей сайта.
Станислав -
С 2019 года количество доменов в зоне .ru остается на одном и том же уровне - около 5 млн. Все изменения на уровне 1% от этого объема в плюс или минус
Фанит -
Спасибо автору за статью, полезно! По поводу сниппета сайта, для увеличения CTR можно дополнительно внедрить основные схемы микроразметки и улучшить его, чтобы выделялся на фоне конкурентов, особенно заметно в Google.
Гость -
Haaaa! Articol despre "перелинковка" cu scopul de a acapara BackLink-uri. Înțeleg cu exemplele din zona ru, da chiar sa folosiți și md, panda, serios?
Александр -
Хм.... ооочень сомнительный результат. За 10 000 в месяц получить 1 запрос в топ10, да ещё и в google, который на ссылки всегда лучше Яндекса реагировал - такое себе.... При этом достаточно странно были отобраны запросы с местами за ТОП50. Ведь давно известно же, что ссылки так быстро не сработают, к тому же за такое короткое время максимально, на что можно рассчитывать - это небольшое повышение средней. Поэтому тут логично было бы подобрать запросы, либо те, которые находятся близко к ТОП10, например на 11-15 местах, и посмотреть на их динамику. Либо на запросы, которые уже в топ10 находятся (5-10 места). Ведь после отключения контекста CTR в google кратно вырос и, например, разница 1 и 2-х местах отличается почти в два раза! Поэтому, если бы ссылки сработали на рост позиций с 5-10 мест, на 1-4 - это был бы кратный толк как в росте трафика, так и с точки зрения отдачи от вложений. Тем более как раз подвижки в 2-3 позиции уже дали бы ощутимый результат (если это, конечно не НЧ и микроНЧ запросы).... Так что считаю, эксперимент изначально был провальным уже на этапе отбора запросов.