WormGPT и эра не цензурируемых ИИ в кибератаках

Появление WormGPT: новый этап в использовании больших языковых моделей киберпреступниками

В марте 2023 года мир кибербезопасности всколыхнула новость о создании WormGPT — языковой модели без цензуры, специально разработанной для облегчения вредоносных действий. Этот инструмент, основанный на открытой модели GPT-J от EleutherAI, быстро привлек внимание как специалистов, так и злоумышленников, демонстрируя новый уровень угроз со стороны AI-управляемых кибератак.

История и особенности WormGPT

WormGPT был анонсирован в марте 2023 года и вышел в публичный доступ в июне того же года. Его разработчик — некто под псевдонимом «Last» — ставил задачу создания LLM, свободной от традиционных мер цензуры, характерных для основных языковых моделей.

  • Модель основана на GPT-J с открытым исходным кодом, разработанной EleutherAI.
  • Модель доступна по подписке, что свидетельствует о попытке монетизации внутри киберпреступной экосистемы.
  • В августе 2023 года WormGPT был закрыт под давлением СМИ, однако это не остановило дальнейшее развитие аналогичных проектов.

Распространение и развитие нецензурированных LLM

После закрытия WormGPT на специализированных форумах, таких как BreachForums, появились различные варианты этого инструмента. Они базируются не на совершенно новых архитектурах, а на адаптированных уже существующих LLM, которые модифицированы с помощью системных подсказок для обхода механизмов безопасности и генерации вредоносного контента.

Среди наиболее заметных вариантов выделяются:

  • keanu-WormGPT, использующий модель Grok от xAI и структурно манипулирующий протоколами взаимодействия для создания вредоносного контента;
  • xzin0vich-WormGPT, построенный на основе Mixstral AI с использованием двойных активных экспертов для анализа токенов и особыми механизмами внимания.

Тревожные тенденции и будущее подобных инструментов

Анализ новейших вариантов WormGPT показывает, что злоумышленники применяют комплексные подходы, включая оперативные манипуляции и тонкую настройку специализированных наборов данных, чтобы сделать свои инструменты не только эффективными, но и сложнообнаружимыми.

Это отражает масштабную трансформацию хакерской среды, где развивается рынок нецензурированных LLM, а также растёт спрос на специалистов в области искусственного интеллекта, способных создавать и улучшать такие модели с учётом конкретных нужд атак.

В результате киберпреступники получают возможность разрабатывать кастомизированные модели, которые усилят возможности LLM для проведения специализированных атак, повышая степень угроз.

Выводы и рекомендации

Распространение и развитие таких инструментов, как WormGPT и его модификаций, подчёркивает важность постоянной бдительности и усовершенствования защитных стратегий. В частности, необходимо:

  • Развивать технологии мониторинга и анализа угроз, основанных на AI;
  • Обучать специалистов по кибербезопасности работе с новейшими инструментами искусственного интеллекта;
  • Обновлять законодательство и политику в области безопасности с учётом появления новых AI-угроз;
  • Повышать осведомлённость организаций о рисках, связанных с не прошедшими цензуру LLM.

В современном цифровом мире искусственный интеллект становится двунаправленным мечом — с одной стороны, мощным инструментом развития, а с другой — серьёзным вызовом для безопасности. Появление WormGPT и схожих моделей — наглядное подтверждение необходимости комплексного и ответственного подхода к их использованию и предотвращению злоупотреблений.

Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.

Ознакомиться подробнее с отчетом можно по ссылке.

Технологии киберугроз
Автор: Технологии киберугроз
Технологии киберугроз – технологическая компания, специализирующаяся на решениях по анализу угроз для предприятий любого размера. Мы собираем, нормализуем, обогащаем информацию о киберугрозах со всего мира. Нашими источниками являют более 260 открытых фидов, более 100 открытых поставщиков Threat Intelligence-отчетов, открытые online sandbox, социальные сети и репозитории GitHub. Мы также предоставляем ряд сервисов по: семантическом анализу Threat Intelligence-отчетов и приведения их в машиночитаемый формат STIX 2.1, проверки IoC на потенциальные ложноположительные сработки, а также получению WHOIS-записей для доменных имен.
Комментарии: