Исследование Кембриджского университета показало, что ИИ не превращает хакеров в суперхакеров

Исследование Кембриджского университета показало, что ИИ не превращает хакеров в суперхакеров

изображение: grok

Новое исследование под руководством Кембриджского университета ставит под сомнение популярный страх о превращении генеративного ИИ в инструмент армии автономных суперхакеров. Учёные изучили почти 98 тыс. тем на теневых форумах после запуска ChatGPT и пришли к менее кинематографичному выводу. В подполье ИИ действительно используют, но в основном для спама, простых фишинговых материалов, генерации контента и помощи опытным программистам, а не для массового запуска полностью автономных атак.

Последние 3 года индустрия защиты, государственные структуры и сами лаборатории ИИ активно обсуждали риск появления нового поколения преступников с возможностью почти без навыка взламывать системы и писать вредоносный код через нейросети. Свежая научная работа с говорящим названием «Автономный комплекс или киберпреступность» решила проверить не маркетинговые прогнозы, а реальное поведение участников подпольных форумов.

Авторы исследования проанализировали 97 895 тем, опубликованных после выхода ChatGPT в ноябре 2022 года. Для этого использовался набор данных CrimeBB Кембриджского центра киберпреступности с информацией с андерграундных и даркнет-форумов. Команда применила тематическое моделирование, вручную прочла более 3200 обсуждений и провела этнографическое наблюдение внутри среды.

Интересно, что 97,3% тем на теневых форумах после выхода ChatGPT вообще не интересовались преступным применением ИИ, и это сильно расходится с громкими прогнозами последних лет.

Результат получился холодным душем для апокалиптических прогнозов. Только в 1,9% случаев участники форумов использовали инструменты для создания атмосферы или сопутствующего контента. Массового перехода подполья на автономные ИИ-операции учёные не зафиксировали.

Отдельный удар пришёлся по мифу о «тёмных чат-ботах» вроде WormGPT, FraudGPT и похожих сервисов, активно попадавших в заголовки в 2023 году. По данным исследователей, большинство обсуждений подобных продуктов сводилось к нескольким простым сюжетам:

  • просьбы дать бесплатный доступ к сервису;
  • пустые разговоры без практических кейсов;
  • жалобы на неработающую функциональность;
  • сравнения с обычным ChatGPT не в пользу платного продукта;
  • обвинения авторов в обмане покупателей.

Один из разработчиков популярного сервиса «тёмного ИИ» в итоге признал на форуме маркетинговую природу проекта. По его признанию, CybercrimeAI был по сути обычным ChatGPT без ограничений, а любой пользователь добивался похожего или лучшего результата через известные техники джейлбрейка.

К концу 2024 года, по оценке исследователей, джейлбрейки для распространённых моделей стали почти одноразовыми. Большинство переставало работать за неделю или даже быстрее. Открытые модели можно настраивать свободнее, но у них есть свои недостатки. Подобные системы требуют ресурсов, работают медленнее и часто остаются «замороженными» во времени без свежих знаний и улучшений.

Парадоксальный вывод авторов состоит в работоспособности встроенных ограничений ИИ-систем. Они не решают проблему полностью, но снижают практическую ценность массовых злоупотреблений и заставляют преступников искать обходы.

Исследование также спорит с громким отчётом Anthropic от августа 2025 года о применении Claude Code в кампании вымогательства против 17 организаций. Кембриджская команда не нашла подтверждения массовости подобной практики для широкого подполья. На изученных форумах ИИ-помощники для кода применяются примерно так же, как у обычных разработчиков, в роли автодополнения и замены Stack Overflow для опытных программистов.

Низкоквалифицированные участники форумов предпочитают не ИИ, а готовые скрипты. Причина проста. Готовый инструмент запускается быстрее и даёт понятный результат, а код от нейросети нужно проверять, исправлять и понимать.

Сами участники подпольных форумов скептически относятся к коду, написанному ИИ. Их претензии звучат довольно конкретно:

  • ИИ ускоряет разработку, но повышает риск небезопасного кода;
  • появляются проблемы в цепочке поставок ПО;
  • постоянная генерация через ИИ снижает навыки самого человека;
  • результат подходит только для мошеннических SaaS-проектов и фишинга;
  • качество, защита и производительность остаются за бортом.

Подобный взгляд сильно отличается от прогнозов Европола, где ещё в 2025 году обсуждалась возможность появления полностью автономного ИИ для управления преступными сетями. Кембриджская работа не отрицает риск в будущем, но показывает прозаичное реальное использование ИИ в подполье на текущем этапе.

Отмечается, что преступники сами жалуются на ИИ из-за слабого кода и быструю потерю навыков у тех, кто полностью полагается на нейросети.

Расслабляться бизнесу всё равно не стоит. ИИ повышает качество массовых атак сразу в нескольких направлениях:

  • генерация правдоподобного фишингового спама;
  • подготовка текстов для обмана и мошенничества;
  • создание поддельных объявлений и фейковых профилей;
  • быстрое написание простых вредоносных материалов;
  • масштабирование разведки по открытым источникам.

Ранее власти ОАЭ предупреждали о ежедневных 500 000–700 000 попытках атак со стороны проиранских групп с применением ChatGPT для разведки, поиска уязвимостей, сбора данных, фишинговых писем и дипфейков. Подобный пример показывает внедрение ИИ в реальные операции, особенно в части подготовки и масштабирования.

Также ранее сообщалось об атаках на ИИ-системы в банковском секторе. По оценкам профильных компаний, уже в 2026 году доля атак с участием ИИ может достичь 5–10% от общего числа целевых вторжений в российские банки. Модель становится не только инструментом преступника, но и частью инфраструктуры под ударом.

Эксперты редакции CISOCLUB отмечают, что исследование Кембриджского университета сбивает лишнюю драму вокруг ИИ и преступности, но не отменяет практические риски для бизнеса. По мнению редакции, готовиться к мифической армии полностью автономных суперхакеров уже завтра не нужно. А реальная угроза лежит в более качественном фишинге, росте шума, ускоренной разведке, слабом ИИ-коде в цепочке поставок и атаках на собственные ИИ-системы компаний. Защита должна строиться не на страхе перед фантастикой, а на понимании реальных точек усиления злоумышленников через нейросети уже сейчас.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: