Россия+7 (495) 960-65-87

Как вирусы на сайте «убивают» поисковое продвижение

Россия+7 (495) 960-65-87
Шрифт:
7 18512

Стабильное пребывание сайта в ТОП-выдаче Яндекса или Google и фантастический трафик с целевыми пользователями зависят не только от профессионализма команды, занимающейся раскруткой интернет-ресурса, и размера ежемесячного SEO-бюджета. Существует еще один важный фактор — безопасность и защищенность интернет-ресурса.

Отсутствие уязвимостей на сайте и его готовность противостоять атакам хакеров — вопрос важный и актуальный, но зачастую упорно игнорируемый владельцами сайтов. Игнорируемый, конечно же, до случая.

Каждый раз все происходит по одному и тому же сценарию: внезапно сайт с уникальными текстами и грамотной внутренней перелинковкой блокируется антивирусом, поисковые системы изолируют ресурс от пользователей интернета, добавляя его в черный список за распространение вирусов, порнографии и вредоносного ПО. А хостер начинает обвинять владельца сайта в грехах, которые тот никогда не совершал: сайт, а порой и вся хостинг-площадка, блокируется за рассылку ненавистного спама, фишинговых страниц или распространения вирусов.

В результате, буквально за пару дней вся долгая и методичная работа по наращиванию ссылочной массы, прокачиванию показателей тИЦ/PR и улучшению поведенческих факторов сводится на нет. Инвестиции в раскрутку сайта оказываются потраченными впустую, а звездное прошлое, когда сайт сиял в топовых позициях Яндекса или Google, кажется далеким и нереальным.

2.jpg

«Только деньги! Ничего личного»

Ежедневно в интернете взламываются десятки тысяч сайтов, среди которых не только крупные порталы известных компаний, но и сайты небольших организаций — «рабочих лошадок» малого и среднего бизнеса, как правило, гораздо менее опасающегося за безопасность своего веб-ресурса, чем за снижение позиций в поисковой выдаче. А зря, ведь именно раскрученные, хорошо посещаемые (и плохо защищенные) сайты со стабильным трафиком наиболее часто попадают в поле зрения хакеров. Поэтому надеяться, что именно ваш сайт будет проигнорирован злоумышленниками — непростительная ошибка. Решать, интересен или неинтересен хакерам ваш ресурс, будете не вы, и не ваша SEO-команда, а сами взломщики.

По данным британской компании Sophos Labs, признанного эксперта в области антивирусной безопасности, ежедневно в интернете фиксируется около 30 тыс. веб-сайтов, распространяющих вредоносный код и содержащих потенциальную опасность для пользователей интернета (данные за 2013 год).

Типичное заблуждение владельца веб-сайта выглядит приблизительно так:

Хакеры атакуют сайты банков и мобильных операторов, взламывают аккаунты известных политиков, наконец, не дают спокойно жить представителям шоу-бизнеса, „сливая“ в интернет тонны приватного фото- и видеоконтента. Причем тут мой сайт небольшой компании, занимающейся продажей пластиковых окон?

Дело в том, что хакеры используют уязвимости интернет-ресурсов не только для того, чтобы украсть конфиденциальные данные посетителей или подпортить репутацию владельца сайта. Зачастую цели хакеров более просты и прагматичны — использовать площадку как инструмент для зарабатывания денег. В большинстве случаев хакеры получают несанкционированный доступ к раскрученным сайтам, чтобы разместить на них вредоносный код, мобильные редиректы или рекламные баннеры, разослать спам или распространить нелегальный контент.

Конечно, смешно полагать, что среднестатистический хакер «спит и видит», как целенаправленно взломать сайт компании по установке окон пвх в Саратовской области, тщательно анализирует возможные вектора атаки на ресурс и выбирает лучший момент для взлома сайта по всем правилам хорарной астрологии. В реальности все гораздо проще. Поиск жертвы — это автоматизированный процесс: специальные хакерские программы быстро «находят» сайты с определенными уязвимостями и в том же автоматическом режиме подсаживают на него вирусы и бэкдоры. Чем выше посещаемость уязвимого веб-сайта, тИЦ и PR страниц — тем больше денег сможет на нем заработать взломщик.

Как последствия взлома сказываются на результатах раскрутки веб-ресурса? Об этом далее...

Прощай, трафик!

Согласно отчету «2014 Internet Security Threat Report, Volume 19», подготовленному американской компанией Symantec, в 2013 году число атак через веб увеличилось на 23% по отношению к 2012 году. По данным Symantec, каждый восьмой сайт, проверенный компанией, содержал критическую уязвимость.

Первые тревожные звоночки со стороны поисковых систем не заставят себя долго ждать. Вредоносный код, размещенный хакером, довольно быстро детектируется антивирусными программами «поисковиков» и «антивирусниками», установленными на стационарных компьютерах. И как только сайт оказывается в категории потенциально опасных для пользователей, он тут же попадает в базу вредоносных ресурсов. В поисковой выдаче пользователь видит рядом с сайтом метку, предупреждающую его о негативных последствиях посещения вашего ресурса:

Яндекс: «Сайт может угрожать безопасности вашего компьютера или мобильного устройства».

Google: «Этот сайт может нанести вред вашему компьютеру».

Ведущие поисковые системы уделяют особое внимание проблеме безопасного поиска в интернете, стремясь на всех доступных уровнях оградить пользователей от киберугроз. Браузеры, работающие на базе Safe Browsing API Яндекса (Яндекс.Браузер) и Google Safe Browsing API ( Opera, Chrome) тут же заблокируют доступ ко всем страницам сайта, если «заметят», что он содержит или распространяет вредоносный код.

sbwarning1.jpg

Такие предупреждения значительно сокращают процент желающих посетить ваш блог, купить что-то в вашем интернет-магазине или принять участие в рекламной акции. Вместе с фактическим трафиком вы теряете и более ценные вещи — лояльность и доверие ваших постоянных клиентов.

Вышеописанные причины ведут к болезненному сокращению трафика на зараженный веб-сайт. Иногда посещаемость падает очень резко и очень значительно — поток пользователей снижается на 70-80%!

4.jpg

Что делать в такой ситуации? Необходимо тут же заняться лечением сайта, очистить его от вирусов и хакерских скриптов и отправить в антивирусную лабораторию или техподдержку антивируса для исключения из базы вредоносных. Только вот, увы, на практике процесс реабилитации может занять от несколько дней до нескольких недель. Если поисковым системам для повторной проверки сайта и удаления его из базы вредоносных понадобится 2-3 рабочих дня, то техподдержка антивирусного продукта может озадачиться вашей проблемой не совсем оперативно: обращаться к специалистам придется неоднократно и по разным каналам, а ответа ждать несколько дней.

Представьте, какое количество посетителей за это время потеряет ваш сайт? А какую прибыль недополучит ваша компания?

Последствия взлома сайта — головная боль «SEOшника»

Что происходит с зараженным сайтом в дальнейшем? Вся кропотливая работа SEO-специалиста и бюджет, потраченный на внешнюю и внутреннюю оптимизацию ресурса, рекламные кампании и SEO, полностью нивелируется:

  • некогда высокий трафик резко снижается в разы;
  • доступ пользователей к сайту ограничивается;
  • из поискового индекса выпадают страницы;
  • поисковые системы накладывают на сайт «фильтры», ограждая пользователей от посещения зараженного ресурса или сразу исключают страницы из поисковой выдачи;
  • посетители перестают доверять скомпрометированному сайту, как только видят тревожную отметку в выдаче Яндекса или Google: «Сайт может угрожать безопасности вашего компьютера...».

Чем быстрее и грамотнее владелец сайта отреагирует на происходящее и обратится к специалистам по информационной безопасности, тем больше шансов спасти ресурс и восстановить его нормальную работоспособность.

Однако каждый владелец сайта должен понимать, что хакер может не только нанести временный ущерб веб-сайту в виде утраченных позиций в поисковиках. Результат вторжения может иметь гораздо более тяжелые последствия — вплоть до полного уничтожения сайта. Случается (не важно, целенаправленно или по ошибке), что злоумышленник повреждает скрипты или базу данных, а иногда и полностью удаляет их. И хорошо, если на хостинге или у владельца сайта, имеется резервная копия, благодаря которой сайт можно восстановить. В противном случае, владелец сайта теряет онлайн-составляющую своего бизнеса.

Жизнь «вне поискового индекса»

Почему страницы сайта, которые Яндекс или Гугл определяют как зараженные, выпадают из поискового индекса?

При обнаружении на страницах сайта вредоносного кода, угрожающего информационной безопасности пользователя, поисковые системы исключают инфицированные страницы из поисковой выдачи. А поскольку в большинстве случаев хакеры размещают вредоносный код в шаблонах CMS или в javascript (.js) — файлах, которые используются на всех страницах сайта, то «попрощаться» с поисковой выдачей рискует большинство страниц скомпрометированного ресурса. Исправить это несложно — достаточно вылечить сайт и дождаться переиндексации страниц поисковыми системами. Только вот процесс этот может оказаться небыстрым.

Взломанный веб-сайт часто используется злоумышленниками для размещения на нем black hat seo-ссылок или кода бирж ссылок, с помощью которых взломщик продвигает свои онлайн-проекты. Такие ссылки не всегда видны пользователям, поскольку могут быть размещены в невидимом слое или за видимой границей страниц сайта. Зачастую хакеры использую технологию клоакинга, позволяющую возвращать разный код страницы в зависимости от посетителя (простым пользователям, паукам поисковой системы и ботам бирж ссылок). Так, хакерские ссылки могут быть прочитаны только роботами поисковых систем или биржами ссылок. И в таком случае, совсем незаметно для своего настоящего владельца сайта, ресурс превращается в линк-ферму.

Вышеописанные хакерские практики весьма распространены в интернете и достаточно жестко пресекаются со стороны поисковых систем. И Яндекс, и Google достаточно быстро распознают «нечестную игру», в которой сайт принимает самое активное участие. Воспринимая такие действия, как манипуляцию поисковыми алгоритмами, «поисковики» тут же предпринимают ответные действия — например, накладывают штрафные санкции или прибегают к более суровому наказанию, лишая ваш сайт возможности попасть даже в первую сотню поисковой выдачи.

Еще один способ паразитирования, негативно отражающемся на SEO взломанного веб-сайта, это дорвеи — страницы, содержащие тонны спам-контента и страниц с ссылками, использующихся для «черного» поискового продвижения и рекламы других ресурсов. Если на сайте «поселился» дорвей, значит, в поисковом индексе будут отображаться тысячи чужих страниц.

Такая ситуация не просто мешает поисковому продвижению, но и может спровоцировать пессимизацию или даже бан веб-ресурса со стороны поисковых систем.

Как бороться с дорвеями? Во-первых, удалить страницы дорвея или скрипт, который их генерирует, с сайта. Во-вторых, запретить индексацию спам-страниц в robots.txt и перенаправить адреса спам-страниц на 404 страницу. Из поисковой выдачи спам-страницы исчезнут только после переиндексации сайта и обновления поискового индекса. Ну а до этого момента в результатах поиска для вашего сайта пользователей будет «радовать» «взрослый контент», серийники программ, базы телефонных номеров и т.п.

С дополнительными проблемами при раскрутке веб-ресурсов могут столкнуться SEO-специалисты, продвигающие сайты на бесплатных шаблонах (Wordpress, Joomla, Drupal, DLE и пр.). В большинстве случаев в таких шаблонах уже зашит «подарок» от хакера в виде вредоносного кода, black hat seo-ссылок, дорвеев и прочей нечести. Причем ситуация на сегодняшний день довольно критична: результаты анализа, проведенного компанией «Ревизиум» в 2014 году, показали, что более половины, а точнее 54% бесплатных шаблонов Wordpress, одной из самых популярных систем управления содержимым сайта, оказались зараженными хакерскими веб-шеллами, бэкдорами, black hat seo («спам») ссылками, а также содержали скрипты с критическими уязвимостями.

SEOшник против хакера

Как же сохранить результаты кропотливого SEO-труда и не потерять инвестиции, вложенные в раскрутку сайта и проведение рекламных кампаний?

Для начала нужно понять, что любой сайт в интернете может быть подвержен хакерской атаке. Хакеры выбирают потенциальных жертв по параметрам, далеко не соответствующим представлению о них владельцев сайта. Недальновидно пренебрегать вопросами информационной безопасности, если вы активно вкладываете в развитие своего бизнеса в интернете.

Действуйте проактивно, максимально снижая риски возможного взлома и заражения:

  • Проведите диагностику сайта для оценки уровня его защищенности. Выявите и устраните уязвимости.
  • Установите защиту и следуйте рекомендациям по технике безопасности при эксплуатации интернет-ресурса. Досадно, но иногда повторное заражение сайта связано именно с халатным отношением к инструкциям, которые специалисты по информационной безопасности настоятельно рекомендуют соблюдать.
  • Выполняйте регулярное сканирование сайта. Мониторинг на постоянной основе — гарантия оперативного обнаружения проблемы и ее быстрой ликвидации.
  • Разработайте план действий в случае обнаружения взлома и заражения.

Бесперебойно работающий и хорошо защищенный веб-сайт — основа успешного продвижения в поисковых системах и гарантия того, что ваши инвестиции в SEO и рекламные кампании будут сделаны не напрасно.


(Нет голосов)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Даше Калинской


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
  • Алексей
    1
    комментарий
    LANG_NO
    читателей
    Алексей
    2 месяца назад
    Хорошая статья, полезная.
    В части регулярного сканирования сайтов советую всем пользоваться онлайн-сканерами уязвимости, их много, и почти все с триалами. Раз в неделю запустил, посмотрел отчёт - напряг разработчика исправить проблемы, если будут.
    Самые полезные - это detectify.com, metascan.ru, acunetix.com. На мой взгляд.
    Намного проще, чем самому в исходном коде копаться или нанимать отдельного спеца.
    -
    1
    +
    Ответить
  • Павел
    1
    комментарий
    LANG_NO
    читателей
    Павел
    больше года назад
    Спасибо за полезную и интересную статью! К сожалению, тема актуальна для меня( Мой сайт заражен вирусом уже долгое время, трафик опустился практически до 0. Подскажите, пожалуйста, насколько тяжело будет восстановить посещаемость. Или лучше уделить внимание созданию нового ресурса? Спасибо.
    -
    0
    +
    Ответить
  • Андрей Куршацов (SEOinar.com.ua)
    3
    комментария
    LANG_NO
    читателей
    Андрей Куршацов (SEOinar.com.ua)
    больше года назад
    Отличная статья! Рекомендую нанять технического специалиста или компанию, которая будет отслеживать техническое состояние сайта или самостоятельно ежедневно отслеживать сайт на вирусы в Google.Webmaster и Яндекс.Вебмастер.
    -
    3
    +
    Ответить
    • Отличная идея! Сколько стоит бросить взгляд на биохазард в Я. Вебмастере один раз в день?
      -
      1
      +
      Ответить
      • Григорий Земсков
        1
        комментарий
        LANG_NO
        читателей
        Григорий Земсков
        Гость
        больше года назад
        Достаточно добавить сайты в webmaster.yandex.ru и www.google.com/webmasters/tools, и поисковики сами вас проинформируют по email, если будут проблемы с вирусами, дорвеями и фишинговыми страницами. Конечно, оперативность данного извещения будет зависеть от частоты индексации страниц вашего сайта, но все же лучше, чем ничего.

        Есть, конечно, сервисы мониторинга сайтов, но они, как правило, малоэффективны, так как дают много "ложных срабатываний", пугая владельцев.
        ...
        Достаточно добавить сайты в webmaster.yandex.ru и www.google.com/webmasters/tools, и поисковики сами вас проинформируют по email, если будут проблемы с вирусами, дорвеями и фишинговыми страницами. Конечно, оперативность данного извещения будет зависеть от частоты индексации страниц вашего сайта, но все же лучше, чем ничего.

        Есть, конечно, сервисы мониторинга сайтов, но они, как правило, малоэффективны, так как дают много "ложных срабатываний", пугая владельцев.

        Регулярно проверяйте файлы на хостинге сканером AI-BOLIT revisium.com/ai/. Если у вас будет вредоносный код, он его найдет. Сканер бесплатный, это также ничего не будет вам стоить.
        -
        0
        +
        Ответить
      • Андрей Куршацов (SEOinar.com.ua)
        3
        комментария
        LANG_NO
        читателей
        Отслеживайте самостоятельно и вам это ничего не будет стоить :)
        -
        -1
        +
        Ответить
        • CaHbKa
          1
          комментарий
          LANG_NO
          читателей
          Я.Вебмастер и Google.Webmaster это конечно хорошо, но если на сайт залили гадость и вы её удалили, то какая вероятность следующего взлома? Очень большая и Андрей видимо хотел сказать, что нужно нанять тех. специалиста для закрытия дырок и уязвимостей.
          -
          0
          +
          Ответить
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
Рейтинг Известности 2018: старт народного голосования
Михаил Р
1
комментарий
LANG_NO
читателей
Полный профиль
Михаил Р - 1. Demis 2. кокс 3. Ашманов 4. Скобеев 5. Digital Strategy
Рейтинг Известности 2018: второй этап народного голосования
Константин Сокол
3
комментария
LANG_NO
читателей
Полный профиль
Константин Сокол - Кто был ответственный за дизайн таблицы голосования? Копирайтер?
Сколько ссылок помогут продвинуть молодой сайт
Павел Андрейчук
26
комментариев
LANG_NO
читателей
Полный профиль
Павел Андрейчук - Дело в том, что вряд ли в ваших платных "качественных" кейсах найдётся хоть пару % действительно новой и полезной информации которой бы не было на общедоступных источниках.
Сайт на WordPress: за и против
Мира Смурков
1
комментарий
LANG_NO
читателей
Полный профиль
Мира Смурков - Людмила, я согласен с большинством комментаторов. Вы хоть один полноценный магазин сделали на этих движках? Woocommerce это система с супер возможностями. И к ней есть дополнительные модули, с функционалом, который вряд ли появиться на Битрикс. А самому это программировать - сотни тысяч рублей на разработку. А приведя в пример сложности с robots.txt и Sitemap вы ставите под вопрос вашу компетенцию в понимании Интернет-бизнеса и веб-разработки в целом. Во-первых это такие мелочи, а во-вторых это все делается на вордпресса за 2 минуты, и опять же с возможностями многократно превышающими Битрикс.
Кейс: вывод лендинга по изготовлению флагов на заказ в ТОП 1 по Санкт-Петербургу
utka21
5
комментариев
LANG_NO
читателей
Полный профиль
utka21 - Кейс как кейс. Для некоторых станет вполне возможно полезным. ( Для конкурентов точно) . А вот с комментариями , что то пошло не так )
Обзор популярных CMS: плюсы и минусы
Гость
1
комментарий
LANG_NO
читателей
Полный профиль
Гость - У Битрикса техническое seo сильно страдает, чтоб оно там было нормальным придется все переделать. Безопасность у Битрикса тоже низкая, особено если надо дорабатывать функционал, как только правиться функционал у Битрикс , то уровень ее безопасности определяет тот разработчик , который этим занимается. Самые безопасные движки те, что нет в общем доступе и где нельзя ничего редактировать в коде. =)
Google обошел Яндекс по популярности в России в 2018 году: исследование SEO Auditor
Рамблер
1
комментарий
LANG_NO
читателей
Полный профиль
Рамблер - Вот вроде отечественный - это сказано верно.. «Я́ндекс» — российская транснациональная компания, зарегистрированная в Нидерландах. Так говорится в Википедии. И с хрена ли ОТЕЧЕСТВЕННЫЙ поисковик зарегистрирован в Европе? И где платится основная часть налогов? Ну-ууу, точно не в России. И если запахнет жаренным, то был Яндекс и нет Яндекса!
8 методик в SEO, от которых давно пора отказаться
Евгений Сметанин
11
комментариев
LANG_NO
читателей
Полный профиль
Евгений Сметанин - Факторов вообще очень много, согласитесь, вы будете использовать максимальное их количество, особенно, если в ТОПе засели агрегаторы с сумасшедшими ПФ. В таких случаях, вхождение ключа в домен для маленького профильного сайта, сыграет свою положительную роль. Конечно же, если контент на страницах хорошего качества. У меня есть несколько успешных кейсов на эту тему. На сайте продают несколько видов товаров, а выстреливает в ТОП тот, название которого присутствует в доменном имени. Как корабль назовешь, так он и поплывет, верно?))
Стартовал сбор заявок на участие в рейтинге «Известность бренда SEO-компаний 2018»
Артем Первухин
1
комментарий
LANG_NO
читателей
Полный профиль
Артем Первухин - Make KINETICA Great Again!
Инструкция: настраиваем цели Яндекс.Метрики через Google Tag Manager
Roman Gorkunenko
1
комментарий
LANG_NO
читателей
Полный профиль
Roman Gorkunenko - Здравствуйте. Подскажите, пожалуйста, можно с айпи метрики вытащить среднюю стоимость клика по утм меткам? В метрике есть такой шаблон tags_u_t_m, но он не совместим с меткой директа, у них разные префиксы.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
373
Комментариев
343
Комментариев
262
Комментариев
244
Комментариев
171
Комментариев
156
Комментариев
137
Комментариев
121
Комментариев
100
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
71
Комментариев
67
Комментариев
60
Комментариев
59
Комментариев
57
Комментариев
56
Комментариев
55

Отправьте отзыв!
Отправьте отзыв!