Cloud.ru запустил инструмент для безопасной работы с ИИ
Cloud.ru на конференции GoCloud 2026 анонсировал Guardrails Filter для безопасной работы c ИИ. Это первый у российских облачных провайдеров инструмент для защиты от утечек при запросах к популярным open source моделям.
Guardrails Filter защищает от утечки корпоративных и пользовательских данных при работе с LLM-моделями. Инструмент сканирует текст и выделяет потенциально чувствительные элементы, например ПДн, реквизиты, API-ключи, секреты, маскирует их и передает обезличенный запрос в LLM. После ответа модели маскиратор меняет синтетические данные обратно на реальные значения. При этом сохраняется семантическая целостность всех передаваемых данных. Таким образом, конечный пользователь получает полноценный результат, при этом чувствительные данные не покидают корпоративный ИТ-контур.
Инструмент предназначен для работы с моделями из сервиса EvolutionFoundation Models. На данный момент в каталоге доступно более 20 популярных больших языковых моделей. Пользователям доступны модели различных типов, включая text-to-text, audio-to-text и image-text-to-text. Они уже готовы к использованию — пользователю не нужно развертывать инференс и писать код, достаточно подключиться через API. Механизм Guardrails Filter будет также доступен бизнесу для внедрения в режиме on-premise, чтобы обработка данных происходила на его стороне.
C момента выхода сервиса Evolution Foundation Models в коммерческую эксплуатацию в ноябре 2025 года модели обработали 450 млрд токенов. Наиболее востребованы сценарии применения генеративного ИИ клиентами Cloud.ru: клиентская поддержка, разработка, продажи, создание контента.
Инструмент Guardrails Filter наиболее актуален для отраслей, которые традиционно работают с большим количеством чувствительных данных и не хотят подвергать риску утечек своих клиентов и сотрудников. Это прежде всего здравоохранение, ритейл и госсектор. По данным рыночных исследований, 71% крупных российских компаний уже используют генеративный ИИ хотя бы в одной функции бизнеса.
«Отсутствие систем фильтрации персональных данных — один из главных блокеров для внедрения генеративного ИИ, мы расширяем функционал Evolution Foundation Models, решая проблему большинства бизнесов. Это продолжение стратегического развития цифровой среды AI Factory, где безопасность встроена в экосистему, а не является надстройкой. Сотрудники российских компаний полагаются на генеративный ИИ для решения самых разных задач и зачастую предоставляют LLM конфиденциальную информацию, повышая риск утечки чувствительной информации. Причем чем больше источников данных подключено к чат-боту, тем шире радиус ущерба», — сказал руководитель продукта AI Factory Артемий Мазаев.
Также Cloud.ru добавил в каталог сервиса Evolution Foundation Models LLM-модель российской компании Hive Trace с Guardrails механизмом, которой клиенты смогут пользоваться аналогично другим моделям из нашего списка. LLM минимизирует промпт-инъекции, утечку системных инструкций, некорректную обработку выходных данных, а также риск введения ИИ-агента в заблуждение.


