Исследование Кембриджского университета показало, что ИИ не превращает хакеров в суперхакеров

изображение: grok
Новое исследование под руководством Кембриджского университета ставит под сомнение популярный страх о превращении генеративного ИИ в инструмент армии автономных суперхакеров. Учёные изучили почти 98 тыс. тем на теневых форумах после запуска ChatGPT и пришли к менее кинематографичному выводу. В подполье ИИ действительно используют, но в основном для спама, простых фишинговых материалов, генерации контента и помощи опытным программистам, а не для массового запуска полностью автономных атак.
Последние 3 года индустрия защиты, государственные структуры и сами лаборатории ИИ активно обсуждали риск появления нового поколения преступников с возможностью почти без навыка взламывать системы и писать вредоносный код через нейросети. Свежая научная работа с говорящим названием «Автономный комплекс или киберпреступность» решила проверить не маркетинговые прогнозы, а реальное поведение участников подпольных форумов.
Авторы исследования проанализировали 97 895 тем, опубликованных после выхода ChatGPT в ноябре 2022 года. Для этого использовался набор данных CrimeBB Кембриджского центра киберпреступности с информацией с андерграундных и даркнет-форумов. Команда применила тематическое моделирование, вручную прочла более 3200 обсуждений и провела этнографическое наблюдение внутри среды.
Интересно, что 97,3% тем на теневых форумах после выхода ChatGPT вообще не интересовались преступным применением ИИ, и это сильно расходится с громкими прогнозами последних лет.
Результат получился холодным душем для апокалиптических прогнозов. Только в 1,9% случаев участники форумов использовали инструменты для создания атмосферы или сопутствующего контента. Массового перехода подполья на автономные ИИ-операции учёные не зафиксировали.
Отдельный удар пришёлся по мифу о «тёмных чат-ботах» вроде WormGPT, FraudGPT и похожих сервисов, активно попадавших в заголовки в 2023 году. По данным исследователей, большинство обсуждений подобных продуктов сводилось к нескольким простым сюжетам:
- просьбы дать бесплатный доступ к сервису;
- пустые разговоры без практических кейсов;
- жалобы на неработающую функциональность;
- сравнения с обычным ChatGPT не в пользу платного продукта;
- обвинения авторов в обмане покупателей.
Один из разработчиков популярного сервиса «тёмного ИИ» в итоге признал на форуме маркетинговую природу проекта. По его признанию, CybercrimeAI был по сути обычным ChatGPT без ограничений, а любой пользователь добивался похожего или лучшего результата через известные техники джейлбрейка.
К концу 2024 года, по оценке исследователей, джейлбрейки для распространённых моделей стали почти одноразовыми. Большинство переставало работать за неделю или даже быстрее. Открытые модели можно настраивать свободнее, но у них есть свои недостатки. Подобные системы требуют ресурсов, работают медленнее и часто остаются «замороженными» во времени без свежих знаний и улучшений.
Парадоксальный вывод авторов состоит в работоспособности встроенных ограничений ИИ-систем. Они не решают проблему полностью, но снижают практическую ценность массовых злоупотреблений и заставляют преступников искать обходы.
Исследование также спорит с громким отчётом Anthropic от августа 2025 года о применении Claude Code в кампании вымогательства против 17 организаций. Кембриджская команда не нашла подтверждения массовости подобной практики для широкого подполья. На изученных форумах ИИ-помощники для кода применяются примерно так же, как у обычных разработчиков, в роли автодополнения и замены Stack Overflow для опытных программистов.
Низкоквалифицированные участники форумов предпочитают не ИИ, а готовые скрипты. Причина проста. Готовый инструмент запускается быстрее и даёт понятный результат, а код от нейросети нужно проверять, исправлять и понимать.
Сами участники подпольных форумов скептически относятся к коду, написанному ИИ. Их претензии звучат довольно конкретно:
- ИИ ускоряет разработку, но повышает риск небезопасного кода;
- появляются проблемы в цепочке поставок ПО;
- постоянная генерация через ИИ снижает навыки самого человека;
- результат подходит только для мошеннических SaaS-проектов и фишинга;
- качество, защита и производительность остаются за бортом.
Подобный взгляд сильно отличается от прогнозов Европола, где ещё в 2025 году обсуждалась возможность появления полностью автономного ИИ для управления преступными сетями. Кембриджская работа не отрицает риск в будущем, но показывает прозаичное реальное использование ИИ в подполье на текущем этапе.
Отмечается, что преступники сами жалуются на ИИ из-за слабого кода и быструю потерю навыков у тех, кто полностью полагается на нейросети.
Расслабляться бизнесу всё равно не стоит. ИИ повышает качество массовых атак сразу в нескольких направлениях:
- генерация правдоподобного фишингового спама;
- подготовка текстов для обмана и мошенничества;
- создание поддельных объявлений и фейковых профилей;
- быстрое написание простых вредоносных материалов;
- масштабирование разведки по открытым источникам.
Ранее власти ОАЭ предупреждали о ежедневных 500 000–700 000 попытках атак со стороны проиранских групп с применением ChatGPT для разведки, поиска уязвимостей, сбора данных, фишинговых писем и дипфейков. Подобный пример показывает внедрение ИИ в реальные операции, особенно в части подготовки и масштабирования.
Также ранее сообщалось об атаках на ИИ-системы в банковском секторе. По оценкам профильных компаний, уже в 2026 году доля атак с участием ИИ может достичь 5–10% от общего числа целевых вторжений в российские банки. Модель становится не только инструментом преступника, но и частью инфраструктуры под ударом.
Эксперты редакции CISOCLUB отмечают, что исследование Кембриджского университета сбивает лишнюю драму вокруг ИИ и преступности, но не отменяет практические риски для бизнеса. По мнению редакции, готовиться к мифической армии полностью автономных суперхакеров уже завтра не нужно. А реальная угроза лежит в более качественном фишинге, росте шума, ускоренной разведке, слабом ИИ-коде в цепочке поставок и атаках на собственные ИИ-системы компаний. Защита должна строиться не на страхе перед фантастикой, а на понимании реальных точек усиления злоумышленников через нейросети уже сейчас.



