Kela: упоминания вредоносных инструментов ИИ в даркнете выросли на 200%

Изображение: Zac Wolff (unsplash)
Аналитики из компании Kela, занимающейся мониторингом киберугроз, зафиксировали стремительный рост интереса к инструментам искусственного интеллекта в теневом сегменте интернета. По их наблюдениям, в течение 2024 года участники киберпреступных сообществ значительно активизировали обсуждение использования ИИ в злонамеренных целях.
В рамках нового исследования под названием «Отчёт об угрозах ИИ в 2025 году: как киберпреступность обращает технологии против нас», специалисты компании в течение всего года изучали активность на форумах и в закрытых чатах, где собираются злоумышленники.
Как отмечает команда Kela, за отчётный период число дискуссий, касающихся попыток взлома законных ИИ-сервисов, увеличилось на 52%. Ещё заметнее вырос интерес к инструментам, изначально созданным для вредоносного применения: количество упоминаний таких решений возросло на 219%.
Авторы исследования обращают внимание на два направления, которыми активно интересуются представители подполья. Первое — это обход встроенных защитных механизмов популярных генеративных платформ, таких как ChatGPT, с целью их последующего использования во вредоносных сценариях. Второе — разработка и распространение собственных решений, получивших в отчёте обозначение «тёмный ИИ».
Под этим термином Kela понимает либо модифицированные версии открытых генеративных моделей, активно продаваемые на закрытых площадках, либо продукты, созданные на базе доступных языковых алгоритмов с открытым кодом. Среди примеров в отчёте упоминается WormGPT — система, основанная на модификации GPT-J и предназначенная для организации атак, включая фишинг и взлом деловой электронной переписки.
В отчёте подчёркивается, что подобные разработки превращаются в полноценный сервис: инструменты ИИ предоставляются преступникам по подписке и позволяют генерировать вредоносный контент на автоматизированной основе. Такой подход резко снижает порог входа в сферу преступной деятельности, позволяя масштабировать атаки и использовать более сложные формы обмана, включая дипфейки и имитации голоса.
Полный текст исследования размещён на сайте компании.



