Ошибка
Ошибка
Ошибка
Подписка оформлена
Заявка успешно отправлена
Ошибка
Сообщение отправлено
Ошибка
По Вашему адресу есть покрытие «Макснет»
Заявка успешно отправлена
Покрытие отсутствует
Ошибка
Отзыв успешно отправлен
Ошибка
Отзыв успешно отправлен
Ошибка
Запрос успешно отправлен
Ошибка
Резюме успешно отправлено
Заявка на перенос домена успешно отправлена
Ошибка
29.06.2025
Интернет
26
Сфера кибербезопасности претерпела заметных изменений с появлением новых технологий искусственного интеллекта (ИИ). Создание новейших систем мониторинга на базе AI (от англ. «Artificial Intelligence») значительно улучшило обнаружение и реагирование на угрозы, ведь у новых алгоритмов есть возможность обрабатывать данные в реальном времени. В то же время, новейшие ИИ-системы активно используются киберпреступниками при осуществлении атак. Поэтому, рассмотрим вопрос того, как AI трансформирует безопасность и угрозу в цифровой среде с обеих сторон.
Роль ИИ в безопасности цифровой среды

Для начала раскроем возможности защиты данных с помощью AI в виртуальном мире. Часто системы обнаружения вторжений на базе ИИ замечают и нейтрализуют угрозы еще до того, как они причинят вред.
1. Обнаружение и предотвращение киберугроз.
Искусственный разум в технологиях кибербезопасности работает приблизительно так же, как внимательный охранник в офисе:
Например, у компании Darktrace есть опыт применения AI для обнаружения киберугроз в реальном времени. Ее система даже при условиях непрерывной эволюции методов атак имеет возможность анализировать десятки тысяч данных в секунду и обнаруживать подозрительную активность. Она автоматически реагирует на угрозу путем блокировки подозрительного трафика или ограничения доступа к ресурсам, что в свою очередь помогает уменьшить убытки системы.
2. Защита от фишинговых атак.
Одной из наиболее распространенных форм кибератак является фишинг, который направлен на похищение персональной информации, паролей или финансовых данных. ИИ может автоматически обнаруживать фишинговые сообщения через их содержание, метаданные и сходство с полученными ранее. AI-системы способны не только обнаруживать шаблонные письма-фишинги, но и распознавать более сложные попытки обмана благодаря обученным моделям.
Так, Google Safe Browsing — это программа от Google, которая использует ИИ для идентификации фишинговых сайтов и других опасных веб-ресурсов. Она имеет систему непрерывного мониторинга новых угроз и конструкций усовершенствованных алгоритмов защиты, поэтому при попытке пользователя зайти на подозрительный сайт система выдаст ему предупреждение о потенциальной опасности.
3. Проактивный мониторинг и реагирование.
AI-системы могут также выполнять роль «цифровых патрулей», постоянно мониторя сеть и определяя потенциальные уязвимости или попытки несанкционированного доступа. ИИ способен своевременно выявлять такие слабые места в безопасности, как неправильные настройки доступа или устаревшие программные решения, и рекомендовать исправления или автоматически вносить их.
Компания Vectra AI, которая разрабатывает системы на основе AI для киберзащиты, использует глубокое обучение для проактивного обнаружения кибератак в реальном времени. Она помогает организациям определять даже очень сложные атаки, такие как внутренние угрозы или кампании с обходными маневрами.
Ограничения ИИ в кибербезопасности
Несмотря на широкие возможности AI относительно безопасности в цифровом мире, предотвратить все виды кибератак ему не под силу. В частности, среди таких современных угроз:
Способы использования ИИ киберпреступниками

Как мы уже упомянули, AI находит применение не только в защитных, но и в злонамеренных целях. Современные онлайн-атаки с использованием ИИ являются более сложными, адаптивными и масштабными. К их числу относятся:
1. Персонализированные фишинговые кампании.
Фишинг в виртуальном мире представляет собой вид интернет-мошенничества, цель которого — выманить у пользователей конфиденциальную информацию (пароли, номера банковских карточек, личные данные). Для этого злоумышленники выдают себя за надежную организацию или лицо, используя обманные электронные письма, SMS-сообщения или поддельные веб-сайты.
С появлением AI стало возможным создавать гиперперсонализированные сообщения, которые анализируют профили потенциальной жертвы в соцсетях, ее корпоративную коммуникацию и стиль общения, психологические особенности и уязвимости, актуальные события в жизни или работе. На основе этой информации генерируются сообщения, которые почти невозможно отличить от настоящих писем от друзей, коллег или партнеров.
2. Атаки на инфраструктуру через AI.
Злоумышленники научились использовать ИИ для целенаправленных атак на инфраструктуру, которая базируется на сетях и облачных технологиях. Например, при выполнении массированных распределенных атак (DDoS), где атакующие системы адаптируются к защитным механизмам, которые используются на целевых серверах. Или DoS-атак, которые в отличие от предыдущих носят узконаправленный характер, и из-за которых сервер также может стать недоступным для пользователей.
Так, во время российско-украинской войны была активной хакерская группа, известная как APT28 или Fancy Bear. Также она принимала участие в нападениях на президентскую кампанию Хиллари Клинтон в 2016 году. Согласно расследованию Microsoft, преступники использовали ИИ для осуществления сложных кибератак на государственные структуры и медиаорганизации, в частности, для обхода систем обнаружения вторжений и создания адаптивных стратегий атаки, которые постоянно меняются.
3. Дипфейк-атаки через социальную инженерию.
ИИ способен анализировать данные из соцсетей, изучать стиль общения человека и адаптировать свои сообщения таким образом, чтобы они выглядели чрезвычайно правдоподобно. Это позволяет создавать фальшивые (дипфейковые) изображения, видеообращения или аудиозвонки, которые тяжело отличить от реальных. Такие дипфейки направлены на манипуляции людьми с целью получения доступа к конфиденциальной информации, ресурсам или распространения дезинформации.
Атаки этого типа могут запутать сотрудников компаний или даже скомпрометировать государственных деятелей. Известен случай, как в 2024 году злоумышленники через имитированный видеозвонок с руководством убедили сотрудника банка перевести на их счет 35 млн долларов.
4. Атаки на системы машинного обучения.
С активным привлечением AI в бизнес-процессы появились и стали распространенными атаки непосредственно на алгоритмы машинного обучения, такие как:
Атаки отравления данных (data poisoning attacks). Осуществляются на этапе обучения AI-модели путем скрытого внедрения в процесс вредоносных данных. Как следствие — искаженная AI-модель и очень высокие убытки.
Атаки уклонения (evasion attacks). Заключаются в том, что злоумышленник намеренно слегка модифицирует входящие данные так, чтобы внешне они оставались похожими на обычные, но при этом могли обмануть модель ИИ или обойти защиту.
Атаки извлечения модели (model extraction attacks). Целью таких атак является воспроизведение или похищение модели AI путем взаимодействия с ней (например, через API). Злоумышленник не имеет прямого доступа к модели, но пытается восстановить ее параметры, структуру или поведение, отправляя ей большое количество запросов и анализируя полученные ответы.
Соревновательные атаки (adversarial attacks). Осуществляются на этапе использования уже обученной модели ИИ с целью временного обмана (например, чтобы обойти модерацию). Приводят к незначительным изменениям входящих данных, что угрожает ошибочными выводами модели.
5. Масштабированные автоматизированные угрозы.
Одним из наибольших преимуществ для хакеров при использовании AI является автоматизация и масштабирование атак. Вместо того, чтобы вручную подбирать уязвимости или создавать вредоносные программы, злоумышленники могут использовать AI для автоматического генерирования новых вирусов, которые адаптируются к защитным системам, совершенствуя свои возможности с каждой атакой.
Как пример: AI дает возможность создавать ботнеты — компьютерные сети, инфицированные вредоносным ПО. Они самостоятельно распространяются через соцсети, имитируют поведение реальных пользователей и координируют атаки через децентрализованные сети.
6. Автономные кибератаки с элементами самообучения.
При использовании в таком типе атак AI позволяет самостоятельно изучать поведение целей и изменять свою тактику в соответствии с полученной информацией. Благодаря этому злоумышленники могут создавать автономные атакующие системы, которые способны:
- самостоятельно сканировать сети в поисках уязвимостей;
- учиться на ошибках и улучшать свою эффективность;
- адаптировать стратегию атаки в режиме реального времени;
- координировать действия между разными компонентами атаки.
Такие системы могут неделями функционировать без человеческого вмешательства, постоянно совершенствуя свои методы.
Как видите, искусственный интеллект в кибербезопасности может использоваться как инструмент не только для защиты данных, но и для злонамеренных действий. С одной стороны, он позволяет создавать чрезвычайно эффективные системы кибербезопасности, способные быстро обнаруживать и нейтрализовать угрозы. С другой — может помогать злоумышленникам улучшать эффективность своих атак, делая их все более сложными и тяжелыми для обнаружения.
Оценить
5.0
Поделиться
Комментарии
0
Еще комментарии