Cisco: ИИ в каждый процесс, а безопасность — потом, или почему организации не справляются с рисками автоматизации?

Изображение: recraft
Компания Cisco опубликовала глобальное исследование, в котором говорится о серьёзном расхождении между темпами внедрения ИИ и готовностью к его защите. По данным отчёта, большинство организаций по всему миру стремятся внедрить искусственный интеллект как можно быстрее, но делают это без необходимой подготовки инфраструктуры и механизмов контроля.
Эксперты Cisco фиксируют тревожную тенденцию: гонка за ИИ-преимуществом обострила проблему так называемого инфраструктурного долга. Этот термин описывает ситуацию, когда компании пытаются встроить передовые ИИ-системы в устаревшие архитектуры, изначально не рассчитанные на подобные нагрузки. В результате появляются технологические разрывы, повышенные издержки и новые векторы уязвимости, которые с каждым месяцем становятся всё опаснее.
Часть организаций всё же выстроила долгосрочные планы. Исследователи называют их «лидерами» — они смотрят на ИИ не как на модный тренд, а как на обязательный компонент стратегического развития. Такие компании не только рассчитывают мощность и масштабы, но и заранее закладывают ресурсы на защиту данных, контроль доступа и мониторинг поведения цифровых агентов.
На практике же большинство опрошенных признали, что их инфраструктура не готова к полноценному развёртыванию ИИ-решений. Особые трудности возникают в сфере безопасности. Многие не уверены, что способны обеспечить защиту даже текущих систем, не говоря уже о растущем числе автономных агентов, принимающих решения без участия человека.
Существующие средства киберконтроля зачастую не распространяются на искусственный интеллект, способный самостоятельно выполнять действия и генерировать выходные данные без проверки. Это резко повышает риски — от утечек информации до несанкционированного вмешательства в бизнес-операции.
Особую тревогу вызывают планы компаний использовать агентные ИИ-системы. Речь идёт о цифровых исполнителях, которые смогут работать с другими программами, вести диалог, искать информацию, принимать решения в логистике, клиентском сервисе или управлении инцидентами. Проблема в том, что такие агенты становятся новыми точками входа для атак. Один незащищённый или неправильно сконфигурированный агент способен нарушить работу всей сети, передав заражение или ошибку другим процессам.
Несмотря на это, у большинства компаний нет чёткого плана по контролю над ИИ. В отчёте говорится, что человеческий надзор часто отсутствует. Организации не знают, как будет обеспечиваться ответственность, если автономная система совершит критическую ошибку. Не определены механизмы проверки действий ИИ, а в некоторых случаях отсутствует даже базовая система журналирования событий.
