Barracuda: более половины спам- и вредоносных писем теперь создаются с помощью ИИ, и доля продолжает расти

Barracuda: более половины спам- и вредоносных писем теперь создаются с помощью ИИ, и доля продолжает расти

Изображение: erica steeves (unsplash)

Компания Barracuda совместно с исследователями Колумбийского и Чикагского университетов опубликовала отчёт, согласно которому уже 51% спам- и вредоносных писем генерируется при помощи инструментов искусственного интеллекта. Исследование охватывало период с февраля 2022 года по апрель 2025 года и базировалось на анализе миллиона писем, отфильтрованных средствами защиты Barracuda.

Рост активности начался в ноябре 2022 года, когда состоялся запуск первой общедоступной LLM-модели ChatGPT. Именно с этого момента исследователи зафиксировали устойчивое увеличение числа писем, сгенерированных ИИ. Особо резкий скачок произошёл в марте 2024 года, а в апреле 2025-го доля таких писем достигла 51%.

По словам Асафа Сидона, доцента Колумбийского университета, точную причину всплеска определить сложно. Среди возможных факторов — появление новых языковых моделей и смена типов атак, что могло привести к более активному использованию автоматизации. Он отметил, что атаки стали не только массовыми, но и стилистически точными: ИИ создаёт тексты, которые трудно отличить от человеческих, особенно в спам-рассылках, нацеленных на фишинг или распространение вредоносных вложений.

В то же время применение ИИ в более «ручных» сценариях, например при взломе деловой электронной переписки (BEC), пока ограничено — только 14% таких попыток в апреле 2025 года были связаны с генерацией контента при помощи ИИ. Причина — необходимость имитировать конкретного человека, часто с точным стилем, историей общения и знаниями о корпоративной структуре. Текущие ИИ-системы справляются с этим менее уверенно.

Тем не менее, Сидон прогнозирует усиление этой тенденции. В частности, он указывает на активное развитие голосовых deepfake-технологий, которые могут позволить злоумышленникам подделывать голоса руководителей компаний и использовать их в рамках схем с банковскими переводами.

Исследование подчёркивает, что киберпреступники оперативно адаптируют ИИ-инструменты под нужды атак, и традиционные методы защиты уже не справляются с потоками автоматически созданного вредоносного контента. Эксперты рекомендуют компаниям обновить политики фильтрации, использовать модели поведенческого анализа и активнее внедрять ИИ в защитные механизмы, чтобы противостоять растущему количеству интеллектуальных угроз.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: