×
Россия +7 (495) 139-20-33

Скрытая угроза: веб-атаки 24x7

Россия +7 (495) 139-20-33
Шрифт:
0 9713

Обычно про безопасность и защиту сайтов владельцы и вебмастера задумываются слишком поздно, когда уже возникают видимые и очевидные проблемы: сайт перенаправляет посетителей на рекламные и вредоносные ресурсы, блокируется хостером за спам/фишинг/вредоносную активность, забанен в поисковой системе. То есть когда хакер уже взломал сайт, закрепился на нем и начал генерировать вредную “полезную” нагрузку. Но это происходит не внезапно и не случайно. Процессу взлома всегда предшествует серия атак, которая проводится хакерами или их ботами с целью разведки: обнаружения уязвимостей или скрытых данных, которые можно использовать для взлома и получения несанкционированного доступа к веб-ресурсу. Данные атаки внешне не заметны, поэтому сайтовладельцы в большинстве случаев пребывают в неведении о том, что их ресурсу что-то угрожает (мало кто из них регулярно анализирует логи веб-сервера или пользуется специализированными решениями для детектирования веб-угроз).

Кроме того, значительно снижает бдительность еще и пара заблуждений:

1. “кому я нужен?”

2. сайты взламывают только по заказу конкурентов.

Сторонники первого утверждения не считают свой ресурс хоть сколько-то важным и интересным для хакера; приверженцы теории про исключительный “взлом по заказу” считают, что их сайту ничто не угрожает, поскольку ресурс новый/непопулярный/региональный, а бизнес - вне конкуренции. И первые, и вторые пребывают в опасном неведении до тех пор, пока сайт не оказывается взломанным, после чего идет серия удивлений и безуспешных попыток найти виновника инцидента.

Как обстоит дело c безопасностью сайтов в реальности?

Вопреки бытующему мнению о том, что активно атакуют только популярные, посещаемые ресурсы, любой сайт, который появился в поисковой выдаче, в соцсетях или каталогах сайтов (то есть стал публичным), подвергается хакерским атакам. Подавляющее большинство атак на сайты является “нецелевыми” или “обезличенными”, поскольку злоумышленник не ставит задачей взломать конкретный сайт. Его цель – собрать как можно большую базу ресурсов, уязвимых к определенным видам атак, чтобы затем провести взлом или их компрометацию автоматизированными средствами в течение нескольких секунд. Так хакеры собирают себе армии ботов, площадки для хостинга вредоносных скриптов, фишинговых страниц и спам-рассылок. Плохим парням все равно, насколько популярен сайт, какая у него аудитория и тематика, насколько он важен для бизнеса. Сайт представляет ценность только как ресурс хостинга, где есть возможность разместить “зловреды” или с которого можно провести целевую атаку на какой-то определенный веб-ресурс.

1.png

Стоимость взлома сайта настолько ничтожна, что не выдерживает никакой конкуренции в сравнении с абузоустойчивыми хостингами, которыми пользовались хакеры несколько лет назад. То есть сейчас им дешевле взломать сотню сайтов на уязвимой Joomla или Wordpress и использовать их для рассылки спама, чем арендовать и настраивать для тех же целей виртуальный сервер.

С каждым годом инструментальные средства для “разведки”, эксплуатации уязвимостей и, в конечном счете, взлома сайта становятся дешевле и доступнее (Не секрет, что большинство хакерских утилит можно скачать на форумах и блогах, а видео-инструкцию посмотреть на youtube). Поэтому число нецелевых атак на сайты, и, как следствие, вероятность взлома, растет чуть ли не в геометрической прогрессии. Если раньше владельцы сайтов и веб-мастера могли рассчитывать на большую долю везения и проблема взлома часто обходила их стороной, то сейчас защитить ресурс от взлома поможет только осведомленность и внимание владельца/подрядчиков к вопросам информационной безопасности. В этой статье мы осветим несколько важных моментов, о которых следует знать всем, кто поддерживает свои сайты или ресурсы клиента.

Чтобы не быть голословным, приведем пример того, как хакер может быстро находить жертв для нецелевого взлома, не прибегая даже к специализированным средствам. Ему достаточно воспользоваться поисковой системой Google и специальной базой запросов, которая называется Google Hacking Database. Данная база содержит перечень запросов (“дорков”) для поиска сайтов, уязвимых к определенным типам атак или содержащих незащищенные файлы с паролями, резервными копиями сайта, адресами закрытых разделов и т.п.

2.png

Предположим, хакеру нужно получить доступ к резервным копиям базы данных сайта на Wordpress. Он вводит в поисковую строку “дорк” (не пытайтесь повторить это дома!). И получает список сайтов, на которых администратор забыл закрыть доступ к каталогу uploads с резервными копиями базы данных (а это случается очень часто).

3.png

Из дампов хакер может извлечь много полезной для взлома информации. Например, логин администратора и хэш пароля, который расшифровывается специальными сервисами за считанные секунды. Так хакеры получают административный доступ к сайтам, а дальше могут загружать вредоносные скрипты, оставлять закладки, взламывать соседние сайты на аккаунте и т.п.

4.png

Весь процесс взлома занимает пару минут, а автоматизированные средства, которыми располагают хакеры, осуществляют за то же время сотни, если не тысячи взломов.

Для того чтобы искать жертв, хакерские боты постоянно “простукивают” сайты, попадающие в поисковую выборку по определенным “доркам”. Поэтому, если сайт доступен в поисковой выдаче, то несколько раз в сутки к нему обязательно “постучатся” и проверят, не содержит ли он какую-то уязвимость, через которую его можно взломать, не открыт ли у него доступ к служебным файлам (резервным копиям, дампам базы данных, файлам настроек и т.п.). Одни боты собирают информацию, другие ее эксплуатируют. Естественно, вручную с тысячами сайтов уже не работают, все делается на автомате.

Важно принять тот факт, что сами атаки на сайт невозможно остановить и с ними бесполезно бороться (разве что полностью запретить индексацию сайта поисковиками, не размещать на него ссылок и закрыть от публичного просмотра – что, согласитесь, странно). Но нецелевые атаки можно сделать максимально безопасными для сайта. Для этого потребуется сделать следующее:

1. Принять и осознать факт постоянного сканирования / атак на сайт, здраво оценить риски и последствия (взлом, компрометация доступов, доступ к конфиденциальной информации и т.п.)

2. Выполнить аудит безопасности сайта: просканировать на уязвимости, проверить настройки, файловую систему и базу данных. Это можно сделать самостоятельно или с привлечением соответствующих специалистов.

3. Внедрить технические меры защиты сайта от взлома: обновить CMS и плагины, выполнить “цементирование” сайта, разместить сайт за файрволлом (подключить к сервису облачного WAF и защиты от DDOS), установить мониторинг сайта.

4. Разработать политику безопасности при администрировании и поддержке сайта – организационные меры, которые повысят безопасность ресурса.

5. Постоянно помнить о том, что безопасность – это процесс, а не разовые меры, и она не бывает удобной.

Хорошая новость в том, что для защиты от нецелевых атак, которые составляют по нашим оценкам порядка 95%, достаточно внедрить хотя бы даже часть технических мер, и это уже существенно снизит риск взлома. Главное, чтобы ваш сайт не был «среднестатистическим». То есть даже небольшое внимание к вопросу информационной безопасности сайта сделает его более защищенным от агрессивного интернета.

(Голосов: 5, Рейтинг: 5)
Читайте нас в Telegram - digital_bar

Есть о чем рассказать? Тогда присылайте свои материалы Марине Ибушевой


Новые 
Новые
Лучшие
Старые
Сообщество
Подписаться 
Подписаться на дискуссию:
E-mail:
ОК
Вы подписаны на комментарии
Ошибка. Пожалуйста, попробуйте ещё раз.
Отправить отзыв
ПОПУЛЯРНЫЕ ОБСУЖДЕНИЯ НА SEONEWS
13 инструментов для SEO-специалиста, актуальных в 2022 году
Саша
5
комментариев
0
читателей
Полный профиль
Саша - кажись какой-то британец
Продуктовый подход в SEO: новая эпоха поисковой оптимизации
Максим
1
комментарий
0
читателей
Полный профиль
Максим - За чек-листы внутри статьи - отдельное спасибо! Не со всем внутри согласен, но доработал под себя)
Скоринг запросов: почему он необходим при сборе семантического ядра
Илья Горбачев
3
комментария
0
читателей
Полный профиль
Илья Горбачев - Сбор сезонности в последней версии находится на вкладке "Парсинг" и вызывается кликом по иконке с графиком на черном фоне. Только он собирает общую частоту, поэтому лучше собирать данные с фраз (маркеров), которые не пересекаются в реальных запросах.
Почему не стоит отказываться от SEO на этапе разработки
Максимус
3
комментария
0
читателей
Полный профиль
Максимус - Я уже сделал и сегодня в первый класс отвёл!
10 сервисов для работы с текстом в 2022 году
Юлия
3
комментария
0
читателей
Полный профиль
Юлия - Никита, вы о чем? Все подписки работают по такому принципу) Я retext давно пользуюсь, они немного подняли цену, но 399 рублей это еще ничего)) у меня на livedune только по несколько тысяч уходит. Выполнять качественно работу используя только руки не получится, а такие сервисы выручают очень Суть то не в том, что вы не воспользовались, а в том, что подписались, надо было просто отписаться и деньги бы не списали
Санкции поисковых систем: как узнать, что сайт попал под фильтры. Обзор главных инструментов
Volodyka Filipov
6
комментариев
0
читателей
Полный профиль
Volodyka Filipov - Нужно не крутить, а по честному развивать)))
Внедрение и тестирование поиска по товарам в интернет-магазине инструментов
Геннадий Sape Agency
3
комментария
0
читателей
Полный профиль
Геннадий Sape Agency - На текущий момент достаточно часто (через 2-3 фида находятся проблемы). Причина в том, что инструмент пока находится в бета-версии и фиды проходят ручную модерацию через асессоров Яндекса. Тем не менее, как правило, правки минимальны.
Прирост трафика почти на 2000% только за счет внутренней перелинковки – разбор кейса
Volodyka Filipov
6
комментариев
0
читателей
Полный профиль
Volodyka Filipov - А cmse.ru/ это ваше детище?
«Ашманов и партнёры» создали нейросеть, которая генерирует нешаблонные описания для страниц сайтов
Алексей
1
комментарий
0
читателей
Полный профиль
Алексей - Функционал есть, но он не отдельный. Он идёт в дополнение к LSI-анализу, интегрирован в него. Можете увидеть сгенерированные мета-теги на вкладке "Текст" в результатах LSI-анализа. Они будут указаны с пометкой (авто). Также сгенерированные мета-теги указаны в ТЗ для копирайтера, которое формируется по итогам анализа конкурентов.
Как сохранить клиентов и управлять онлайн-репутацией бизнеса в кризис
RocketData
1
комментарий
0
читателей
Полный профиль
RocketData - Добрый день! Да, эта информация актуальна на март 2022 года. При написании статьи мы опирались на информацию, полученную от служб поддержки геосервисов.
ТОП КОММЕНТАТОРОВ
Комментариев
910
Комментариев
834
Комментариев
554
Комментариев
540
Комментариев
483
Комментариев
385
Комментариев
373
Комментариев
262
Комментариев
249
Комментариев
171
Комментариев
156
Комментариев
141
Комментариев
121
Комментариев
115
Комментариев
99
Комментариев
97
Комментариев
97
Комментариев
96
Комментариев
80
Комментариев
77
Комментариев
74
Комментариев
67
Комментариев
63
Комментариев
60
Комментариев
59

Отправьте отзыв!
Отправьте отзыв!