×
Россия +7 (495) 139-20-33

Как вирусы на сайте «убивают» поисковое продвижение

Россия +7 (495) 139-20-33
Шрифт:
7 21487

Стабильное пребывание сайта в ТОП-выдаче Яндекса или Google и фантастический трафик с целевыми пользователями зависят не только от профессионализма команды, занимающейся раскруткой интернет-ресурса, и размера ежемесячного SEO-бюджета. Существует еще один важный фактор — безопасность и защищенность интернет-ресурса.

Отсутствие уязвимостей на сайте и его готовность противостоять атакам хакеров — вопрос важный и актуальный, но зачастую упорно игнорируемый владельцами сайтов. Игнорируемый, конечно же, до случая.

Каждый раз все происходит по одному и тому же сценарию: внезапно сайт с уникальными текстами и грамотной внутренней перелинковкой блокируется антивирусом, поисковые системы изолируют ресурс от пользователей интернета, добавляя его в черный список за распространение вирусов, порнографии и вредоносного ПО. А хостер начинает обвинять владельца сайта в грехах, которые тот никогда не совершал: сайт, а порой и вся хостинг-площадка, блокируется за рассылку ненавистного спама, фишинговых страниц или распространения вирусов.

В результате, буквально за пару дней вся долгая и методичная работа по наращиванию ссылочной массы, прокачиванию показателей тИЦ/PR и улучшению поведенческих факторов сводится на нет. Инвестиции в раскрутку сайта оказываются потраченными впустую, а звездное прошлое, когда сайт сиял в топовых позициях Яндекса или Google, кажется далеким и нереальным.

2.jpg

«Только деньги! Ничего личного»

Ежедневно в интернете взламываются десятки тысяч сайтов, среди которых не только крупные порталы известных компаний, но и сайты небольших организаций — «рабочих лошадок» малого и среднего бизнеса, как правило, гораздо менее опасающегося за безопасность своего веб-ресурса, чем за снижение позиций в поисковой выдаче. А зря, ведь именно раскрученные, хорошо посещаемые (и плохо защищенные) сайты со стабильным трафиком наиболее часто попадают в поле зрения хакеров. Поэтому надеяться, что именно ваш сайт будет проигнорирован злоумышленниками — непростительная ошибка. Решать, интересен или неинтересен хакерам ваш ресурс, будете не вы, и не ваша SEO-команда, а сами взломщики.

По данным британской компании Sophos Labs, признанного эксперта в области антивирусной безопасности, ежедневно в интернете фиксируется около 30 тыс. веб-сайтов, распространяющих вредоносный код и содержащих потенциальную опасность для пользователей интернета (данные за 2013 год).

Типичное заблуждение владельца веб-сайта выглядит приблизительно так:

Хакеры атакуют сайты банков и мобильных операторов, взламывают аккаунты известных политиков, наконец, не дают спокойно жить представителям шоу-бизнеса, „сливая“ в интернет тонны приватного фото- и видеоконтента. Причем тут мой сайт небольшой компании, занимающейся продажей пластиковых окон?

Дело в том, что хакеры используют уязвимости интернет-ресурсов не только для того, чтобы украсть конфиденциальные данные посетителей или подпортить репутацию владельца сайта. Зачастую цели хакеров более просты и прагматичны — использовать площадку как инструмент для зарабатывания денег. В большинстве случаев хакеры получают несанкционированный доступ к раскрученным сайтам, чтобы разместить на них вредоносный код, мобильные редиректы или рекламные баннеры, разослать спам или распространить нелегальный контент.

Конечно, смешно полагать, что среднестатистический хакер «спит и видит», как целенаправленно взломать сайт компании по установке окон пвх в Саратовской области, тщательно анализирует возможные вектора атаки на ресурс и выбирает лучший момент для взлома сайта по всем правилам хорарной астрологии. В реальности все гораздо проще. Поиск жертвы — это автоматизированный процесс: специальные хакерские программы быстро «находят» сайты с определенными уязвимостями и в том же автоматическом режиме подсаживают на него вирусы и бэкдоры. Чем выше посещаемость уязвимого веб-сайта, тИЦ и PR страниц — тем больше денег сможет на нем заработать взломщик.

Как последствия взлома сказываются на результатах раскрутки веб-ресурса? Об этом далее...

Прощай, трафик!

Согласно отчету «2014 Internet Security Threat Report, Volume 19», подготовленному американской компанией Symantec, в 2013 году число атак через веб увеличилось на 23% по отношению к 2012 году. По данным Symantec, каждый восьмой сайт, проверенный компанией, содержал критическую уязвимость.

Первые тревожные звоночки со стороны поисковых систем не заставят себя долго ждать. Вредоносный код, размещенный хакером, довольно быстро детектируется антивирусными программами «поисковиков» и «антивирусниками», установленными на стационарных компьютерах. И как только сайт оказывается в категории потенциально опасных для пользователей, он тут же попадает в базу вредоносных ресурсов. В поисковой выдаче пользователь видит рядом с сайтом метку, предупреждающую его о негативных последствиях посещения вашего ресурса:

Яндекс: «Сайт может угрожать безопасности вашего компьютера или мобильного устройства».

Google: «Этот сайт может нанести вред вашему компьютеру».

Ведущие поисковые системы уделяют особое внимание проблеме безопасного поиска в интернете, стремясь на всех доступных уровнях оградить пользователей от киберугроз. Браузеры, работающие на базе Safe Browsing API Яндекса (Яндекс.Браузер) и Google Safe Browsing API ( Opera, Chrome) тут же заблокируют доступ ко всем страницам сайта, если «заметят», что он содержит или распространяет вредоносный код.

sbwarning1.jpg

Такие предупреждения значительно сокращают процент желающих посетить ваш блог, купить что-то в вашем интернет-магазине или принять участие в рекламной акции. Вместе с фактическим трафиком вы теряете и более ценные вещи — лояльность и доверие ваших постоянных клиентов.

Вышеописанные причины ведут к болезненному сокращению трафика на зараженный веб-сайт. Иногда посещаемость падает очень резко и очень значительно — поток пользователей снижается на 70-80%!

4.jpg

Что делать в такой ситуации? Необходимо тут же заняться лечением сайта, очистить его от вирусов и хакерских скриптов и отправить в антивирусную лабораторию или техподдержку антивируса для исключения из базы вредоносных. Только вот, увы, на практике процесс реабилитации может занять от несколько дней до нескольких недель. Если поисковым системам для повторной проверки сайта и удаления его из базы вредоносных понадобится 2-3 рабочих дня, то техподдержка антивирусного продукта может озадачиться вашей проблемой не совсем оперативно: обращаться к специалистам придется неоднократно и по разным каналам, а ответа ждать несколько дней.

Представьте, какое количество посетителей за это время потеряет ваш сайт? А какую прибыль недополучит ваша компания?

Последствия взлома сайта — головная боль «SEOшника»

Что происходит с зараженным сайтом в дальнейшем? Вся кропотливая работа SEO-специалиста и бюджет, потраченный на внешнюю и внутреннюю оптимизацию ресурса, рекламные кампании и SEO, полностью нивелируется:

  • некогда высокий трафик резко снижается в разы;
  • доступ пользователей к сайту ограничивается;
  • из поискового индекса выпадают страницы;
  • поисковые системы накладывают на сайт «фильтры», ограждая пользователей от посещения зараженного ресурса или сразу исключают страницы из поисковой выдачи;
  • посетители перестают доверять скомпрометированному сайту, как только видят тревожную отметку в выдаче Яндекса или Google: «Сайт может угрожать безопасности вашего компьютера...».

Чем быстрее и грамотнее владелец сайта отреагирует на происходящее и обратится к специалистам по информационной безопасности, тем больше шансов спасти ресурс и восстановить его нормальную работоспособность.

Однако каждый владелец сайта должен понимать, что хакер может не только нанести временный ущерб веб-сайту в виде утраченных позиций в поисковиках. Результат вторжения может иметь гораздо более тяжелые последствия — вплоть до полного уничтожения сайта. Случается (не важно, целенаправленно или по ошибке), что злоумышленник повреждает скрипты или базу данных, а иногда и полностью удаляет их. И хорошо, если на хостинге или у владельца сайта, имеется резервная копия, благодаря которой сайт можно восстановить. В противном случае, владелец сайта теряет онлайн-составляющую своего бизнеса.

Жизнь «вне поискового индекса»

Почему страницы сайта, которые Яндекс или Гугл определяют как зараженные, выпадают из поискового индекса?

При обнаружении на страницах сайта вредоносного кода, угрожающего информационной безопасности пользователя, поисковые системы исключают инфицированные страницы из поисковой выдачи. А поскольку в большинстве случаев хакеры размещают вредоносный код в шаблонах CMS или в javascript (.js) — файлах, которые используются на всех страницах сайта, то «попрощаться» с поисковой выдачей рискует большинство страниц скомпрометированного ресурса. Исправить это несложно — достаточно вылечить сайт и дождаться переиндексации страниц поисковыми системами. Только вот процесс этот может оказаться небыстрым.

Взломанный веб-сайт часто используется злоумышленниками для размещения на нем black hat seo-ссылок или кода бирж ссылок, с помощью которых взломщик продвигает свои онлайн-проекты. Такие ссылки не всегда видны пользователям, поскольку могут быть размещены в невидимом слое или за видимой границей страниц сайта. Зачастую хакеры использую технологию клоакинга, позволяющую возвращать разный код страницы в зависимости от посетителя (простым пользователям, паукам поисковой системы и ботам бирж ссылок). Так, хакерские ссылки могут быть прочитаны только роботами поисковых систем или биржами ссылок. И в таком случае, совсем незаметно для своего настоящего владельца сайта, ресурс превращается в линк-ферму.

Вышеописанные хакерские практики весьма распространены в интернете и достаточно жестко пресекаются со стороны поисковых систем. И Яндекс, и Google достаточно быстро распознают «нечестную игру», в которой сайт принимает самое активное участие. Воспринимая такие действия, как манипуляцию поисковыми алгоритмами, «поисковики» тут же предпринимают ответные действия — например, накладывают штрафные санкции или прибегают к более суровому наказанию, лишая ваш сайт возможности попасть даже в первую сотню поисковой выдачи.

Еще один способ паразитирования, негативно отражающемся на SEO взломанного веб-сайта, это дорвеи — страницы, содержащие тонны спам-контента и страниц с ссылками, использующихся для «черного» поискового продвижения и рекламы других ресурсов. Если на сайте «поселился» дорвей, значит, в поисковом индексе будут отображаться тысячи чужих страниц.

Такая ситуация не просто мешает поисковому продвижению, но и может спровоцировать пессимизацию или даже бан веб-ресурса со стороны поисковых систем.

Как бороться с дорвеями? Во-первых, удалить страницы дорвея или скрипт, который их генерирует, с сайта. Во-вторых, запретить индексацию спам-страниц в robots.txt и перенаправить адреса спам-страниц на 404 страницу. Из поисковой выдачи спам-страницы исчезнут только после переиндексации сайта и обновления поискового индекса. Ну а до этого момента в результатах поиска для вашего сайта пользователей будет «радовать» «взрослый контент», серийники программ, базы телефонных номеров и т.п.

С дополнительными проблемами при раскрутке веб-ресурсов могут столкнуться SEO-специалисты, продвигающие сайты на бесплатных шаблонах (Wordpress, Joomla, Drupal, DLE и пр.). В большинстве случаев в таких шаблонах уже зашит «подарок» от хакера в виде вредоносного кода, black hat seo-ссылок, дорвеев и прочей нечести. Причем ситуация на сегодняшний день довольно критична: результаты компания «Ревизиум – лечение и защита сайтов», проведенного компанией «Ревизиум» в 2014 году, показали, что более половины, а точнее 54% бесплатных шаблонов Wordpress, одной из самых популярных систем управления содержимым сайта, оказались зараженными хакерскими веб-шеллами, бэкдорами, black hat seo («спам») ссылками, а также содержали скрипты с критическими уязвимостями.

SEOшник против хакера

Как же сохранить результаты кропотливого SEO-труда и не потерять инвестиции, вложенные в раскрутку сайта и проведение рекламных кампаний?

Для начала нужно понять, что любой сайт в интернете может быть подвержен хакерской атаке. Хакеры выбирают потенциальных жертв по параметрам, далеко не соответствующим представлению о них владельцев сайта. Недальновидно пренебрегать вопросами информационной безопасности, если вы активно вкладываете в развитие своего бизнеса в интернете.

Действуйте проактивно, максимально снижая риски возможного взлома и заражения:

  • Проведите диагностику сайта для оценки уровня его защищенности. Выявите и устраните уязвимости.
  • Установите защиту и следуйте рекомендациям по технике безопасности при эксплуатации интернет-ресурса. Досадно, но иногда повторное заражение сайта связано именно с халатным отношением к инструкциям, которые специалисты по информационной безопасности настоятельно рекомендуют соблюдать.
  • Выполняйте регулярное сканирование сайта. Мониторинг на постоянной основе — гарантия оперативного обнаружения проблемы и ее быстрой ликвидации.
  • Разработайте план действий в случае обнаружения взлома и заражения.

Бесперебойно работающий и хорошо защищенный веб-сайт — основа успешного продвижения в поисковых системах и гарантия того, что ваши инвестиции в SEO и рекламные кампании будут сделаны не напрасно.


(Голосов: 6, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Алексей
    1
    комментарий
    0
    читателей
    Алексей
    больше года назад
    Хорошая статья, полезная.
    В части регулярного сканирования сайтов советую всем пользоваться онлайн-сканерами уязвимости, их много, и почти все с триалами. Раз в неделю запустил, посмотрел отчёт - напряг разработчика исправить проблемы, если будут.
    Самые полезные - это detectify.com, metascan.ru, acunetix.com. На мой взгляд.
    Намного проще, чем самому в исходном коде копаться или нанимать отдельного спеца.
    -
    2
    +
    Ответить
  • Павел
    1
    комментарий
    0
    читателей
    Павел
    больше года назад
    Спасибо за полезную и интересную статью! К сожалению, тема актуальна для меня( Мой сайт заражен вирусом уже долгое время, трафик опустился практически до 0. Подскажите, пожалуйста, насколько тяжело будет восстановить посещаемость. Или лучше уделить внимание созданию нового ресурса? Спасибо.
    -
    0
    +
    Ответить
  • Андрей Куршацов (SEOinar.com.ua)
    3
    комментария
    0
    читателей
    Андрей Куршацов (SEOinar.com.ua)
    больше года назад
    Отличная статья! Рекомендую нанять технического специалиста или компанию, которая будет отслеживать техническое состояние сайта или самостоятельно ежедневно отслеживать сайт на вирусы в Google.Webmaster и Яндекс.Вебмастер.
    -
    3
    +
    Ответить
    • Отличная идея! Сколько стоит бросить взгляд на биохазард в Я. Вебмастере один раз в день?
      -
      1
      +
      Ответить
      • Григорий Земсков
        1
        комментарий
        0
        читателей
        Григорий Земсков
        Гость
        больше года назад
        Достаточно добавить сайты в webmaster.yandex.ru и www.google.com/webmasters/tools, и поисковики сами вас проинформируют по email, если будут проблемы с вирусами, дорвеями и фишинговыми страницами. Конечно, оперативность данного извещения будет зависеть от частоты индексации страниц вашего сайта, но все же лучше, чем ничего.

        Есть, конечно, сервисы мониторинга сайтов, но они, как правило, малоэффективны, так как дают много "ложных срабатываний", пугая владельцев.
        ...
        Достаточно добавить сайты в webmaster.yandex.ru и www.google.com/webmasters/tools, и поисковики сами вас проинформируют по email, если будут проблемы с вирусами, дорвеями и фишинговыми страницами. Конечно, оперативность данного извещения будет зависеть от частоты индексации страниц вашего сайта, но все же лучше, чем ничего.

        Есть, конечно, сервисы мониторинга сайтов, но они, как правило, малоэффективны, так как дают много "ложных срабатываний", пугая владельцев.

        Регулярно проверяйте файлы на хостинге сканером AI-BOLIT revisium.com/ai/. Если у вас будет вредоносный код, он его найдет. Сканер бесплатный, это также ничего не будет вам стоить.
        -
        0
        +
        Ответить
      • Андрей Куршацов (SEOinar.com.ua)
        3
        комментария
        0
        читателей
        Отслеживайте самостоятельно и вам это ничего не будет стоить :)
        -
        -1
        +
        Ответить
        • CaHbKa
          1
          комментарий
          0
          читателей
          Я.Вебмастер и Google.Webmaster это конечно хорошо, но если на сайт залили гадость и вы её удалили, то какая вероятность следующего взлома? Очень большая и Андрей видимо хотел сказать, что нужно нанять тех. специалиста для закрытия дырок и уязвимостей.
          -
          0
          +
          Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Алгоритм продвижения сайта через Pinterest
Виктор Гаврюков
29
комментариев
1
читатель
Полный профиль
Виктор Гаврюков - В самом вверху есть ссылка на мою группу в ВК, там где автор материала. Через группу и свяжитесь со мной_)
Ссылочный апдейт Google: что изменится для SEO-специалистов в рунете
Тимур
6
комментариев
0
читателей
Полный профиль
Тимур - Понял, спасибо за информацию.
Как забрать 5 мест в выдаче из 10. Кейс-эксперимент
Виктор Гаврюков
29
комментариев
1
читатель
Полный профиль
Виктор Гаврюков - такое можно делать и с ВЧ_)
3 основные ошибки, которые допускают владельцы сайтов при продвижении
Виктор Гаврюков
29
комментариев
1
читатель
Полный профиль
Виктор Гаврюков - Не обращай внимания_) Если у тебя хороший ресурс, то ты будешь первоисточником, и все кто своровал, автоматически начнут на тебя ссылаться, точнее, так гугл будет считать_)
Как продвинуть сайт по коммерческим запросам в ТОП-10 с помощью ресурса Reddit
Denis Zar
2
комментария
0
читателей
Полный профиль
Denis Zar - пользовались услугами по продвижению на реддит от reddit-marketing.pro?
Как мы увеличили трафик из Яндекса более чем в 3 раза за неделю на сайте клиники. Кейс
Андрей
1
комментарий
0
читателей
Полный профиль
Андрей - У большинства сайтов произошел рост в Гугле в декабре и в марте Яндекса. Ваши шаманства тут не причём :)
Сравнительная статистика уровня жизни SEO-специалистов в семи странах, включая Россию
Рустам
1
комментарий
0
читателей
Полный профиль
Рустам - Средняя температура по больнице, подсчет даже близко не отображает действительность, особенно учитывая разность цен и уровня зп в разных частях больших стран (США, Канада, Россия)
Зарабатываем с помощью текстов: как создать уникальный контент и монетизировать сайт
dotaidi
94
комментария
0
читателей
Полный профиль
dotaidi - Какой-то нейро-физиологический подход к теме создания контента: 1. " ..чтобы контент отвечал интересам аудитории, закрывал ее боли и потербности". Закрыть боль аудитории? Это как понимать, текст что должен выполнять функцию анестезии? Зачем падать в медицинские категории, это ведь профессиональный текст о SEO, а не триллер и не художественная литература, где метафоры уместны. 2. "Главное — чтобы процесс сбора информации вас увлекал и нравился, ведь эта работа требует усилий". Построение тезиса предполагает, что если работа не нравится, то и усилий она не требует. И вообще, упор в работе на главное значение "нравится" — очень спорное и тоже из области НЛП-игрушек. Стилистика статьи тоже желает более продуманного подхода к использованию словосочетаний специфической терминологии: "вы можеет создавать материалы в коллаборации с известными брендами, релевантными тематике вашего сайта". Бренд не может быть релевантным из-за того, что это целый комплекс явлений, собранный под некоторой узнаваемой семантической или графической символикой. Релевантность — качество, свидетельствующее о совпадении запроса(желания) и выдачи (полученной информации). Это нужно хотеть бренд, чтобы он стал релевантным. Аналогия и релевантность не синонимы. "прикладывайте усилия в сбор и обработку информации" и многие подобные обороты делают статью не просто нерелевантной, но просто безграмотной.
Как доработка структуры вывела сайт в ТОП-10 Google и увеличила трафик в 2 раза. Кейс Связной Трэвел
Дмитрий
3
комментария
0
читателей
Полный профиль
Дмитрий - Вероятнее всего было обновление Google и позиции были снижены в связи с низкой скоростью загрузки страниц (так как доработке ведутся не только по SEO, но и в целом по функционалу сайта, появляются новые скрипты). В этот период в Google Search Console увеличилось количество страниц с низкой скоростью загрузки. Мы выявили несколько проблем, которые снижают скорость загрузки страниц и выдали рекомендации по их устранению. Пока данные рекомендации находятся в работе. Также был проведен анализ EAT факторов и проверка сайта на соответствие требованиям Google к YMYL сайта, выданы рекомендации по доработке данных факторов (ждем внедрения наших рекомендаций, поделимся потом результатами).
Рост ботных переходов на сайт: как интерпретировать и что делать
Mike
5
комментариев
0
читателей
Полный профиль
Mike - как это проверить? что товары выводится именно на основе спроса, а не по заданным алгоритмам?
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
114
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
94
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
62
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!