"Зачем лечить и защищать сайт, если можно восстановить из бэкапа?"

Одна из наиболее часто встречающихся ошибок среди веб-мастеров, столкнувшихся со взломом и заражением веб-ресурса, заключается в восстановлении сайта из резервной копии на дату, когда все работало «нормально». «Нормально», в понимании веб-мастера, - когда сайт не рассылал спам, не «редиректил» мобильных пользователей на wap-click партнерки, не раздражал посетителей назойливыми попандерами, которые были размещены несанкционированно, и так далее. То есть на момент отсутствия очевидной проблемы безопасности на сайте.

Однако откат сайта назад – это, зачастую, неверный способ решения сложившейся проблемы. Во-первых, восстановление сайта из резервной копии без поиска варианта проникновения хакера на сайт – это всегда большой риск потери веб-ресурса. Если злоумышленник однажды каким-то образом смог получить доступ к сайту с целью его дальнейшей эксплуатации, где гарантии того, что он не получит его в следующий раз, но уже с худшими намерениями?

В большинстве случаев хакеры взламывают сайты для зарабатывания денег, и в их интересах как можно больше «выжать» из взломанного сайта. То есть они не стремятся уничтожить атакованный сайт, их главная задача – на нем заработать или использовать его как инструмент для взлома других веб-ресурсов. В тоже время бывают ситуации, когда киберзлоумышленники ломают сайты без возможности восстановления их работоспособности, уничтожают резервные копии на аккаунте хостинга, и владелец веб-проекта остается ни с чем. Обычно такое случается в результате заказного взлома.

Во-вторых, само по себе восстановление сайта из бэкапа может превратиться в настоящий «день сурка»: веб-мастер откатывает сайт назад, хакер снова взламывает сайт через ту же самую уязвимость и подсаживает на него “вредоноса”. И так по кругу. Причем злоумышленник не обязательно делает это вручную: современные средства для взлома и заражения, используемые хакерами для проведения массовых атак, позволяют выполнять все несанкционированные операции в автоматическом режиме – по расписанию и с минимальными затратами на своей стороне, чего не скажешь о веб-мастере.

Нередко хакеры атакуют сайты в несколько этапов. Сначала проводится сканирование, в ходе которой хакер «проверяет» тысячи сайтов на возможность эксплуатации в них определенных уязвимостей. Далее злоумышленник атакует и  «закрепляется» на своей жертве, подсаживая специальный скрипт (бэкдор), который может не создавать особых проблем в плане безопасности и оставаться незамеченным на протяжении долгого времени. Меж тем резервные копии сайта с внедренным в него шеллом постепенно «затирают» чистые копии. И вот у веб-мастера на хостинге уже нет версии сайта, когда с последним все было действительно «нормально». Далее злоумышленник начинает эксплуатировать сайт в своих целях – рассылать спам или воровать мобильный трафик, но уже любой откат сайта назад будет означать возвращение к взломанной версии, на которой есть бэкдор.

Единственно правильный вариант в сложившейся ситуации – это комплексный подход к решению проблемы: лечение веб-ресурса и его защита от взлома. Важно работать не со следствием проблемы, а с ее первопричиной, чтобы исключить повторный взлом в будущем.

Для проверки сайта на предмет заражения существует несколько эффективных при этом бесплатных инструментов, популярных среди веб-мастеров и хостинговых компаний. Среди них – сканер вредоносного кода AI-BOLIT, который поможет проверить файлы сайта на хостинге; веб-сканер ReScan.Pro, благодаря которому вы сможете проверить страницы сайта на вирусный код, скрытую переадресацию, недобросовестную рекламу, опасные виджеты, а также санкции со стороны поисковых систем.

После того как выполнена диагностика ресурса, удален вредоносный код, закрыты уязвимости, установлена защита от взлома, можно, наконец, сделать резервную копию сайта, которая будет той самой базой для восстановления сайта в случае возникновения проблем. Как выполнять резервное копирование сайта мы расскажем в одной из следующих статей.