Вредоносный Go-дроппер использует GPT-4 для обхода анализа

Недавно проанализированный двоичный Go-дроппер ai.exe демонстрирует нетипичную для вредоносного ПО архитектуру: перед выполнением полезной нагрузки он обращается к GPT-4 OpenAI, чтобы оценить, можно ли считать текущую среду безопасной. Такой подход делает образец особенно примечательным, поскольку решение о продолжении атаки принимается не локально, а на основе внешней оценки через OpenAI API.

Как работает цепочка выполнения

После запуска файл размером 27 МБ собирает и отправляет в OpenAI API 19 полей телеметрии, чтобы получить оценку окружающей среды. Если GPT-4 возвращает команду execute со значением true и уровень уверенности составляет 0,8 или выше, двоичный файл переходит к следующему этапу:

  • расшифровывает надежно сохраненный двоичный объект с зашифрованным RC4 шеллкодом;
  • извлекает встроенный имплантат Sliver;
  • выполняет его в памяти.

Если модель не подтверждает выполнение, образец уходит в паузу на 30 секунд и затем повторяет попытку. Таким образом, цепочка построена как цикл запросов на одобрение, а не как одноразовая попытка запуска.

Имитация поведения red team

Особое внимание в этом образце привлекает системная подсказка, встроенная в логику обращения к модели. Она предписывает GPT-4 анализировать телеметрию на предмет признаков аналитической среды, что по сути воспроизводит подход, характерный для операторов red team. Иными словами, вредоносный код пытается определить, находится ли он в песочнице, лаборатории или иной контролируемой среде, и в зависимости от этого решает, запускать ли полезную нагрузку.

Авторы анализа отмечают, что такая схема заметно повышает уровень уклонения от обнаружения. Использование оценок на основе искусственного интеллекта позволяет вредоносному ПО действовать скрытно именно там, где оно считает среду безопасной.

Что известно о полезной нагрузке

Встроенный имплантат Sliver содержит адрес C2 (command and control), указанный как частный IP-адрес 192.168.1.140. Это означает, что при текущей конфигурации он недоступен из внешних сетей.

Сам имплантат обладает широким набором функций, включая:

  • поддержку расширения WASM;
  • поворот именованной трубы;
  • возможности, характерные для полноценного инструментария оператора.

После расшифровки шеллкода образец выделяет память с правами RWX (Read-Write-Execute), чтобы обеспечить выполнение полезной нагрузки Sliver непосредственно в памяти.

Логирование, ключ API и признаки небрежной реализации

Несмотря на сложность архитектуры, двоичный файл демонстрирует и заметные признаки неаккуратной реализации. Он записывает все операционные шаги в стандартный вывод и хранит OpenAI API key в открытом виде. Позднее этот ключ был идентифицирован как отозванный к марту 2026 года.

Такая деталь указывает на противоречивость образца: с одной стороны, он использует сложную логику принятия решений и шифрование RC4, а с другой — оставляет чувствительные данные в явном виде.

Наблюдения в изолированной среде

В ходе тестирования в нескольких изолированных средах, проводившегося с сентября по декабрь 2025 года, двоичный файл последовательно пытался подключиться к OpenAI API. Однако ни при одном запуске ему не удалось успешно выполнить полезную нагрузку Sliver.

Вместо этого образец постоянно сохранял цикл повторных попыток, создавая множество запросов к API в соответствии со своей логикой ожидания одобрения. Это подтверждает, что механизм условного выполнения был встроен в цепочку с самого начала и использовался как основной элемент поведения.

Почему этот образец важен

Текущий образец демонстрирует полную операционную цепочку, ориентированную на предотвращение выполнения в аналитических условиях. В ней сочетаются:

  • сбор телеметрии;
  • интеллектуальное принятие решений на основе искусственного интеллекта;
  • условный запуск полезной нагрузки;
  • сокрытие действий за счет повторных попыток и выполнения в памяти.

По мере совершенствования технологий такие подходы могут быть адаптированы к реальной инфраструктуре, что повысит риск атак и усложнит их обнаружение. В этом смысле ai.exe выглядит не просто как отдельный дроппер, а как пример того, как злоумышленники начинают интегрировать AI-driven логику в механизмы уклонения и доставки вредоносной нагрузки.

Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.

Ознакомиться подробнее с отчетом можно по ссылке.

Технологии киберугроз
Автор: Технологии киберугроз
Технологии киберугроз – технологическая компания, специализирующаяся на решениях по анализу угроз для предприятий любого размера. Мы собираем, нормализуем, обогащаем информацию о киберугрозах со всего мира. Нашими источниками являют более 260 открытых фидов, более 100 открытых поставщиков Threat Intelligence-отчетов, открытые online sandbox, социальные сети и репозитории GitHub. Мы также предоставляем ряд сервисов по: семантическом анализу Threat Intelligence-отчетов и приведения их в машиночитаемый формат STIX 2.1, проверки IoC на потенциальные ложноположительные сработки, а также получению WHOIS-записей для доменных имен.
Комментарии: