Утечки данных через ИИ-сервисы выросли в 30 раз

Объём утечек данных российских компаний через публичные ИИ-сервисы в 2025 году увеличился в 30 раз. ИИ-эксперт Станислав Ежов уверен, что подобные утечки данных — это результат отсутствия контроля.

Статистика основана на внутренних факторах — на том, что сотрудники загружают в ChatGPT и аналогичные сервисы рабочие документы. Об этом сообщили в официальном телеграм-канале УБК МВД России.

Аналитики изучили трафик 150 компаний и выяснили, что около 60% организаций не имеют формализованных правил работы с ИИ. Из-за этого сервисы стали новым, незаметным каналом утечек, который критично влияет на безопасность.

«Нейросети остаются полезным инструментом, но без чётких правил и технического контроля они становятся источником риска, а иногда и точкой входа для злоумышленников», — отметили в ведомстве.

В «Группе Астра», крупнейшем разработчике ИИ-решений и вендоре B2B-решений, прокомментировали рост ИИ-утечек.

«По факту, 30-кратный рост утечек через публичные ИИ — это закономерный результат отсутствия контроля. Компании дают сотрудникам, например, ChatGPT, а потом удивляются, куда ушли контракты и клиентские базы. Когда мы строим суверенные ИИ-контуры для банков и госструктур, то первый шаг — закрыть доступ к внешним сервисам и развернуть изолированные модели внутри периметра. Это базовая гигиена, при которой данные не покидают контур, аудит прозрачен, и риски обнуляются», говорит Станислав Ежов, директор по ИИ «Группы Астра».

Группа Астра
Автор: Группа Астра
ГК «Астра» (ООО «РусБИТех-Астра») — один из лидеров российской IT-индустрии, ведущий производитель программного обеспечения, в том числе защищенных операционных систем и платформ виртуализации. Разработка флагманского продукта, ОС семейства Astra Linux, ведется с 2008 года. На сегодня в штате компании более 1000 высококвалифицированных разработчиков и специалистов технической поддержки.
Комментарии: