Северокорейские и китайские хакеры массово используют ИИ для фишинга, подделки документов и атак на компании

Северокорейские и китайские хакеры массово используют ИИ для фишинга, подделки документов и атак на компании

Изображение: recraft

Инструменты искусственного интеллекта всё чаще используются не только для легитимных задач, но и как инструменты киберпреступности. Компании OpenAI, Google и Anthropic сообщили о многочисленных случаях злоупотреблений своими ИИ-моделями со стороны хакерских группировок, якобы связанных с Китаем и Северной Кореей. Киберпреступники используют нейросети для фальсификации документов, создания фейковых резюме и проведения кибератак.

Согласно новым данным южнокорейской компании Genians, группа Kimusky, якобы связанная с северокорейскими спецслужбами, использовала ChatGPT для генерации поддельных военных удостоверений личности, имитирующих южнокорейские документы.

Эти фальшивые ID прикладывались к фишинговым письмам, маскирующимся под официальную переписку Министерства обороны Южной Кореи. По данным Genians, модели ИИ не выдавали полноценные удостоверения, но срабатывали, если запрос подавался как «макет для дизайна» — таким образом обходились защитные механизмы.

Группировка Kimusky ранее фигурировала в отчётах Министерства внутренней безопасности США, где отмечалось, что она действует в интересах режима КНДР, нацеливаясь на учреждения в Южной Корее, Японии и США. Помимо создания поддельных документов, преступники используют ИИ для трудоустройства в иностранные технологические компании.

По информации Anthropic, северокорейские хакеры применяли Claude для генерации резюме, прохождения технических тестов и даже выполнения задач, полученных уже после трудоустройства в компаниях из списка Fortune 500. Эта схема используется для получения доступа к внутренним корпоративным сетям.

Американские власти ранее сообщали, что КНДР создала сеть «удалённых сотрудников» с поддельными или украденными данными, которая активно трудоустраивается в иностранные компании, особенно в США, с целью диверсий и кражи информации.

По отчёту Anthropic, китайские хакеры также используют ИИ-инструменты для усиления атак. Один из известных случаев — продолжительная кампания, в рамках которой преступник использовал Claude как технического консультанта, аналитика и кодера при атаках на телекоммуникационные и правительственные системы во Вьетнаме. Хакер взаимодействовал с ИИ в режиме реального времени, получая инструкции, примеры кода и советы по внедрению в целевые сети.

В отчёте OpenAI, опубликованном в июне, также описывались попытки китайских групп получить с помощью ChatGPT инструменты для брутфорса паролей, скрипты автоматического перебора логинов, а также сведения о системах оборонного назначения и идентификационных базах. Кроме того, были зафиксированы попытки использования ИИ для информационных операций: создание фейковых постов в соцсетях, дублирование профилей, выдающих себя за реальных людей, и распространение политически мотивированного контента.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: