0800-31-0700 для новых абонентов
0800-31-0800 техническая поддержка

AI в кибербезопасности: как искусственный интеллект защищает и атакует цифровой мир

Главная /

Блог

/

AI в кибербезопасности: как искусственный интеллект защищает и атакует цифровой мир

AI в кибербезопасности: как искусственный интеллект защищает и атакует цифровой мир

29.06.2025

Интернет

26

Сфера кибербезопасности претерпела заметных изменений с появлением новых технологий искусственного интеллекта (ИИ). Создание новейших систем мониторинга на базе AI (от англ. «Artificial Intelligence») значительно улучшило обнаружение и реагирование на угрозы, ведь у новых алгоритмов есть возможность обрабатывать данные в реальном времени. В то же время, новейшие ИИ-системы активно используются киберпреступниками при осуществлении атак. Поэтому, рассмотрим вопрос того, как AI трансформирует безопасность и угрозу в цифровой среде с обеих сторон.

Роль ИИ в безопасности цифровой среды

Для начала раскроем возможности защиты данных с помощью AI в виртуальном мире. Часто системы обнаружения вторжений на базе ИИ замечают и нейтрализуют угрозы еще до того, как они причинят вред.

1. Обнаружение и предотвращение киберугроз.

Искусственный разум в технологиях кибербезопасности работает приблизительно так же, как внимательный охранник в офисе:

  • Изучает, что является «нормальным». AI анализирует привычное поведение в системе: кто куда заходит, какие файлы открывает, с каких устройств, в какое время.
  • Ищет странные действия. Когда какой-то процесс сильно отличается от обычного (например, кто-то пытается скопировать все файлы ночью), ИИ воспринимает это как сигнал о возможной угрозе.
  • Использует примеры из прошлого. AI тренируется на реальных примерах вирусов, хакерских атак, вредоносных программ. Он запоминает, как они выглядят, и может узнавать подобное в будущем.
  • Быстро реагирует. Когда в режиме реального времени ИИ обнаруживает что-то подозрительное, он автоматически предупреждает об этом специалистов или даже блокирует действие (например, останавливает подозрительную программу).
  • Постоянно обучается. Чем больше информации получает искусственный интеллект, тем лучше он распознает норму и угрозу. AI-модели отслеживают новые угрозы и совершенствуют алгоритмы через обучение на них, что позволяет адаптироваться к новым тактикам злоумышленников.

Например, у компании Darktrace есть опыт применения AI для обнаружения киберугроз в реальном времени. Ее система даже при условиях непрерывной эволюции методов атак имеет возможность анализировать десятки тысяч данных в секунду и обнаруживать подозрительную активность. Она автоматически реагирует на угрозу путем блокировки подозрительного трафика или ограничения доступа к ресурсам, что в свою очередь помогает уменьшить убытки системы.

2. Защита от фишинговых атак.

Одной из наиболее распространенных форм кибератак является фишинг, который направлен на похищение персональной информации, паролей или финансовых данных. ИИ может автоматически обнаруживать фишинговые сообщения через их содержание, метаданные и сходство с полученными ранее. AI-системы способны не только обнаруживать шаблонные письма-фишинги, но и распознавать более сложные попытки обмана благодаря обученным моделям.

Так, Google Safe Browsing — это программа от Google, которая использует ИИ для идентификации фишинговых сайтов и других опасных веб-ресурсов. Она имеет систему непрерывного мониторинга новых угроз и конструкций усовершенствованных алгоритмов защиты, поэтому при попытке пользователя зайти на подозрительный сайт система выдаст ему предупреждение о потенциальной опасности.

3. Проактивный мониторинг и реагирование.

AI-системы могут также выполнять роль «цифровых патрулей», постоянно мониторя сеть и определяя потенциальные уязвимости или попытки несанкционированного доступа. ИИ способен своевременно выявлять такие слабые места в безопасности, как неправильные настройки доступа или устаревшие программные решения, и рекомендовать исправления или автоматически вносить их.

Компания Vectra AI, которая разрабатывает системы на основе AI для киберзащиты, использует глубокое обучение для проактивного обнаружения кибератак в реальном времени. Она помогает организациям определять даже очень сложные атаки, такие как внутренние угрозы или кампании с обходными маневрами.

Ограничения ИИ в кибербезопасности

Несмотря на широкие возможности AI относительно безопасности в цифровом мире, предотвратить все виды кибератак ему не под силу. В частности, среди таких современных угроз:

  • Атаки с социальной инженерии. AI помогает обнаруживать фишинговые сообщения, но не всегда способен распознать хорошо замаскированные обманные схемы, особенно те, которые манипулируют человеческой психологией (например, когда злоумышленник выдает себя за руководителя компании).
  • Неизвестные (zero-day) уязвимости. ИИ помогает обнаруживать аномалии, но не всегда является эффективным инструментом для предсказания кибератак или их остановки в случае использования злоумышленниками совсем новых, еще не изученных уязвимостей.
  • Искусственные ограничения. AI-системы сами могут содержать уязвимости, быть неправильно настроенными или ограниченными в своей способности анализировать зашифрованный или нестандартный трафик.
  • Злонамеренное использование AI. К сожалению, ИИ используют и хакерами для обхода защиты — например, при создании адаптивных вредоносных программ, которые меняют свое поведение, чтобы избежать обнаружения. Об этом детальнее пойдет речь дальше.

Способы использования ИИ киберпреступниками

Как мы уже упомянули, AI находит применение не только в защитных, но и в злонамеренных целях. Современные онлайн-атаки с использованием ИИ являются более сложными, адаптивными и масштабными. К их числу относятся:

1. Персонализированные фишинговые кампании.

Фишинг в виртуальном мире представляет собой вид интернет-мошенничества, цель которого — выманить у пользователей конфиденциальную информацию (пароли, номера банковских карточек, личные данные). Для этого злоумышленники выдают себя за надежную организацию или лицо, используя обманные электронные письма, SMS-сообщения или поддельные веб-сайты.

С появлением AI стало возможным создавать гиперперсонализированные сообщения, которые анализируют профили потенциальной жертвы в соцсетях, ее корпоративную коммуникацию и стиль общения, психологические особенности и уязвимости, актуальные события в жизни или работе. На основе этой информации генерируются сообщения, которые почти невозможно отличить от настоящих писем от друзей, коллег или партнеров.

2. Атаки на инфраструктуру через AI.

Злоумышленники научились использовать ИИ для целенаправленных атак на инфраструктуру, которая базируется на сетях и облачных технологиях. Например, при выполнении массированных распределенных атак (DDoS), где атакующие системы адаптируются к защитным механизмам, которые используются на целевых серверах. Или DoS-атак, которые в отличие от предыдущих носят узконаправленный характер, и из-за которых сервер также может стать недоступным для пользователей.

Так, во время российско-украинской войны была активной хакерская группа, известная как APT28 или Fancy Bear. Также она принимала участие в нападениях на президентскую кампанию Хиллари Клинтон в 2016 году. Согласно расследованию Microsoft, преступники использовали ИИ для осуществления сложных кибератак на государственные структуры и медиаорганизации, в частности, для обхода систем обнаружения вторжений и создания адаптивных стратегий атаки, которые постоянно меняются.

3. Дипфейк-атаки через социальную инженерию.

ИИ способен анализировать данные из соцсетей, изучать стиль общения человека и адаптировать свои сообщения таким образом, чтобы они выглядели чрезвычайно правдоподобно. Это позволяет создавать фальшивые (дипфейковые) изображения, видеообращения или аудиозвонки, которые тяжело отличить от реальных. Такие дипфейки направлены на манипуляции людьми с целью получения доступа к конфиденциальной информации, ресурсам или распространения дезинформации.

Атаки этого типа могут запутать сотрудников компаний или даже скомпрометировать государственных деятелей. Известен случай, как в 2024 году злоумышленники через имитированный видеозвонок с руководством убедили сотрудника банка перевести на их счет 35 млн долларов.

4. Атаки на системы машинного обучения.

С активным привлечением AI в бизнес-процессы появились и стали распространенными атаки непосредственно на алгоритмы машинного обучения, такие как:

Атаки отравления данных (data poisoning attacks). Осуществляются на этапе обучения AI-модели путем скрытого внедрения в процесс вредоносных данных. Как следствие — искаженная AI-модель и очень высокие убытки.

Атаки уклонения (evasion attacks). Заключаются в том, что злоумышленник намеренно слегка модифицирует входящие данные так, чтобы внешне они оставались похожими на обычные, но при этом могли обмануть модель ИИ или обойти защиту.

Атаки извлечения модели (model extraction attacks). Целью таких атак является воспроизведение или похищение модели AI путем взаимодействия с ней (например, через API). Злоумышленник не имеет прямого доступа к модели, но пытается восстановить ее параметры, структуру или поведение, отправляя ей большое количество запросов и анализируя полученные ответы.

Соревновательные атаки (adversarial attacks). Осуществляются на этапе использования уже обученной модели ИИ с целью временного обмана (например, чтобы обойти модерацию). Приводят к незначительным изменениям входящих данных, что угрожает ошибочными выводами модели.

5. Масштабированные автоматизированные угрозы.

Одним из наибольших преимуществ для хакеров при использовании AI является автоматизация и масштабирование атак. Вместо того, чтобы вручную подбирать уязвимости или создавать вредоносные программы, злоумышленники могут использовать AI для автоматического генерирования новых вирусов, которые адаптируются к защитным системам, совершенствуя свои возможности с каждой атакой.

Как пример: AI дает возможность создавать ботнеты — компьютерные сети, инфицированные вредоносным ПО. Они самостоятельно распространяются через соцсети, имитируют поведение реальных пользователей и координируют атаки через децентрализованные сети.

6. Автономные кибератаки с элементами самообучения.

При использовании в таком типе атак AI позволяет самостоятельно изучать поведение целей и изменять свою тактику в соответствии с полученной информацией. Благодаря этому злоумышленники могут создавать автономные атакующие системы, которые способны:

- самостоятельно сканировать сети в поисках уязвимостей;

- учиться на ошибках и улучшать свою эффективность;

- адаптировать стратегию атаки в режиме реального времени;

- координировать действия между разными компонентами атаки.

Такие системы могут неделями функционировать без человеческого вмешательства, постоянно совершенствуя свои методы.

Как видите, искусственный интеллект в кибербезопасности может использоваться как инструмент не только для защиты данных, но и для злонамеренных действий. С одной стороны, он позволяет создавать чрезвычайно эффективные системы кибербезопасности, способные быстро обнаруживать и нейтрализовать угрозы. С другой — может помогать злоумышленникам улучшать эффективность своих атак, делая их все более сложными и тяжелыми для обнаружения.

Комментарии

0

Еще комментарии