«Living off AI»: новая угроза безопасности с использованием MCP

Living off AI: новая угроза безопасности с использованием MCP

Источник: www.catonetworks.com

Недавние достижения в области внедрения искусственного интеллекта (ИИ) в корпоративные рабочие процессы, в частности с помощью протокола Model Context Protocol (MCP) от Atlassian, открыли дверь к появлению нового типа хакерской атаки, получившей название «Living off AI». Данная угроза связана с уязвимостями, возникающими во взаимодействии между внешними пользователями и внутренними системами, построенными на базе ИИ.

Суть атаки «Living off AI» и роль MCP

Протокол MCP встроен в такие инструменты, как Jira Service Management (JSM), и позволяет сотрудникам службы поддержки использовать интеллектуальные алгоритмы для выполнения задач: обобщения заявок, предоставления автоматических ответов и повышения эффективности рабочих процессов. Однако подобная функциональность создает непредвиденные риски.

В сценарии атаки, продемонстрированном в рамках proof of concept (PoC), внешний злоумышленник отправляет вредоносный запрос, который:

  • использует отсутствие изолированной среды и контроля контекста в MCP;
  • заставляет внутреннего пользователя системы непреднамеренно выступать в роли прокси-сервера;
  • запускает вредоносные действия с привилегиями внутреннего пользователя, предоставляя хакеру расширенный доступ.

Механизм эксплуатации и дальнейшие последствия

В показанном PoC злоумышленник также применяет метод социальной инженерии, отправляя запрос с внедрёнными ссылками на поддельную страницу Confluence. При переходе сотрудника, например инженера по обеспечению качества (QA), по этой ссылке происходит установление соединения с Command and Control (C2) сервером, что влечёт за собой:

  • загрузку и установку вредоносного ПО;
  • кражу учетных данных;
  • горизонтальное перемещение по корпоративной сети.

Таким образом, изначально скрытая эксплуатация механизма MCP перерастает в масштабный инцидент безопасности, включающий утечку данных, уничтожение информации и вредоносные действия на предприятии.

Выводы и рекомендации

Атака «Living off AI» демонстрирует важность комплексного подхода к безопасности в эпоху искусственного интеллекта:

  • необходимо внедрять изолированные среды выполнения для обработки запросов от внешних пользователей;
  • обязателен строгий контроль контекста и проверка подлинности запросов;
  • важно повышать осведомленность сотрудников о методах социальной инженерии и угрозах фишинга;
  • рекомендуется проводить регулярные аудиты и тестирования безопасности решений, основанных на ИИ.

Как подчеркнули эксперты, современная интеграция искусственного интеллекта в рабочие процессы требует не только технической надежности, но и продуманной стратегии защиты от новых видов угроз.

Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.

Ознакомиться подробнее с отчетом можно по ссылке.

Технологии киберугроз
Автор: Технологии киберугроз
Технологии киберугроз (бренд RST Cloud Russia) – технологическая компания, специализирующаяся на решениях по анализу угроз для предприятий любого размера. Мы собираем, нормализуем, обогащаем информацию о киберугрозах со всего мира. Нашими источниками являют более 260 открытых фидов, более 100 открытых поставщиков Threat Intelligence-отчетов, открытые online sandbox, социальные сети и репозитории GitHub. Мы также предоставляем ряд сервисов по: семантическом анализу Threat Intelligence-отчетов и приведения их в машиночитаемый формат STIX 2.1, проверки IoC на потенциальные ложноположительные сработки, а также получению WHOIS-записей для доменных имен.
Комментарии: