«Living off AI»: новая угроза безопасности с использованием MCP

Источник: www.catonetworks.com
Недавние достижения в области внедрения искусственного интеллекта (ИИ) в корпоративные рабочие процессы, в частности с помощью протокола Model Context Protocol (MCP) от Atlassian, открыли дверь к появлению нового типа хакерской атаки, получившей название «Living off AI». Данная угроза связана с уязвимостями, возникающими во взаимодействии между внешними пользователями и внутренними системами, построенными на базе ИИ.
Суть атаки «Living off AI» и роль MCP
Протокол MCP встроен в такие инструменты, как Jira Service Management (JSM), и позволяет сотрудникам службы поддержки использовать интеллектуальные алгоритмы для выполнения задач: обобщения заявок, предоставления автоматических ответов и повышения эффективности рабочих процессов. Однако подобная функциональность создает непредвиденные риски.
В сценарии атаки, продемонстрированном в рамках proof of concept (PoC), внешний злоумышленник отправляет вредоносный запрос, который:
- использует отсутствие изолированной среды и контроля контекста в MCP;
- заставляет внутреннего пользователя системы непреднамеренно выступать в роли прокси-сервера;
- запускает вредоносные действия с привилегиями внутреннего пользователя, предоставляя хакеру расширенный доступ.
Механизм эксплуатации и дальнейшие последствия
В показанном PoC злоумышленник также применяет метод социальной инженерии, отправляя запрос с внедрёнными ссылками на поддельную страницу Confluence. При переходе сотрудника, например инженера по обеспечению качества (QA), по этой ссылке происходит установление соединения с Command and Control (C2) сервером, что влечёт за собой:
- загрузку и установку вредоносного ПО;
- кражу учетных данных;
- горизонтальное перемещение по корпоративной сети.
Таким образом, изначально скрытая эксплуатация механизма MCP перерастает в масштабный инцидент безопасности, включающий утечку данных, уничтожение информации и вредоносные действия на предприятии.
Выводы и рекомендации
Атака «Living off AI» демонстрирует важность комплексного подхода к безопасности в эпоху искусственного интеллекта:
- необходимо внедрять изолированные среды выполнения для обработки запросов от внешних пользователей;
- обязателен строгий контроль контекста и проверка подлинности запросов;
- важно повышать осведомленность сотрудников о методах социальной инженерии и угрозах фишинга;
- рекомендуется проводить регулярные аудиты и тестирования безопасности решений, основанных на ИИ.
Как подчеркнули эксперты, современная интеграция искусственного интеллекта в рабочие процессы требует не только технической надежности, но и продуманной стратегии защиты от новых видов угроз.
Отчет получен из сервиса CTT Report Hub. Права на отчет принадлежат его владельцу.
Ознакомиться подробнее с отчетом можно по ссылке.
