DLP для контроля ИИ-инструментов: с чего начать и как выстроить систему защиты

DLP для контроля ИИ-инструментов: с чего начать и как выстроить систему защиты

Изображение: grok

Автор материала: Владимир Кадыко, технический директор Falcongaze

С конца 2024 года мы наблюдаем среди наших клиентов резкий всплеск интереса к ИИ-инструментам — и это вполне закономерно. Они ускоряют работу и нередко дают ощутимый прирост эффективности практически каждому сотруднику офиса, от программиста до копирайтера. Однако вместе с этим неизбежно встает вопрос безопасности данных, которые сотрудники копируют в окна чат-ботов.

В этом материале я расскажу, как с помощью DLP-системы выстроить контроль использования ИИ-инструментов так, чтобы не замедлять процессы и не терять преимущества, которые дает бизнесу искусственный интеллект.

Когда использование ИИ-инструментов может приводить к утечкам данных?

Даже самая устойчивая система защиты данных бессильна, если сотрудники своими руками передают конфиденциальные данные во внешние сервисы, в том числе в генеративные инструменты.

В топе новостей по утечкам данных через ИИ — загрузка критичных данных в бесплатные модели. К сожалению, рядовые пользователи не всегда учитывают, что при бесплатном доступе компенсацией становятся загружаемые данные. В большинстве случаев эти данные используются для обучения моделей и повышения качества предоставляемых сервисов. Удалить уже загруженные данные из генеративной модели очень и очень непросто, а для бесплатных сервисов такая возможность даже не предусмотрена.

Ситуацию усугубляет то, что подавляющее большинство случаев использования ИИ на рабочем месте по-прежнему приходится на личные учетные записи, а не корпоративные. Это явление получило название «Теневой ИИ». Важно понимать: окно чат-бота с личного аккаунта — это неочевидный канал утечки данных. Пользователь загружает данные в офисе и, авторизовавшись дома, копирует их на личное устройство. Утечка случилась.

К вышеперечисленному добавляется еще один вектор риска — ИИ-функции, встроенные в легитимный коммерческий софт. Приставка «AI-» или «Нейро-» рядом с логотипом компании или продукта — это отличный маркетинг, и он работает. При этом поспешное внедрение AI-функционала без продолжительного тестирования, поиска и устранения уязвимостей может привести к серьезным инцидентам.

Исходя из сказанного выше, можно сделать простой вывод: руководитель компании может способствовать внедрению ИИ-инструментов в бизнес-процессы, может категорично запрещать — но контролировать их использование придется в любом случае.

С чего начать контроль использования ИИ-инструментов?

Выстраивайте защиту с четкого, прозрачного и понятного регламента их использования внутри компании.

В этом регламенте необходимо зафиксировать, допустимо ли использование ИИ-инструментов, и если да — то каких конкретно и может ли сотрудник использовать личную учетную запись. Важно определить, какие категории сотрудников могут работать с внешними ИИ-моделями, а для каких это должно быть ограничено или полностью запрещено. Эти правила должны быть не просто формально задокументированы, а согласованы с руководством и доведены до каждого сотрудника под подпись.

Кроме того, без четко выстроенного регламента невозможно корректно настроить сами политики безопасности: неясно, что именно считать нарушением, какие сценарии допустимы, а какие требуют блокировки. Невозможно и грамотно настроить исключения — они всегда опираются на базовые правила. Несистемный подход, как показывает наш опыт, приведет к каскаду ложных срабатываний, ненужных блокировок и путаницы в процессах.

Что еще нужно учитывать?

Поскольку корень проблемы лежит в поведении сотрудников, а не в технических уязвимостях информационной системы, наиболее очевидный способ снизить риски для бизнеса — перейти на ИИ-модели, развернутые внутри инфраструктуры организации и изолированные от интернета. Это позволяет организации легализовать использование генеративных инструментов и при этом не выпускать обрабатываемые данные за пределы собственного контура.

Следующий важный шаг, вне зависимости от того, будет ли написан регламент или нет, будет ли внедрена локальная модель или нет — мониторинг посещения официальных (и не очень) сайтов ИИ-инструментов. Как правило, самый простой вариант — полный запрет доступа к внешним ресурсам, особенно если работа с ними может привести к утечке чувствительных данных и серьезным последствиям для бизнеса.

Если же задача состоит не в жестком ограничении, а в наблюдении за активностью, можно настроить систему оповещений для специалиста безопасности. Например, DLP может сигнализировать о посещении как официальных страниц ИИ-платформ, так и любых других сайтов, в домене которых присутствует «ai», «neiro» и так далее. Чаще всего для контроля посещения таких веб-ресурсов достаточно настройки обычного правила безопасности.

Новые сайты открываются буквально каждый день, и задача безопасника в этой связи — знать, с чем работают сотрудники, куда загружают данные и какому сервису хотят доверить секреты компании.

В некоторых DLP-системах уже предустановлен набор правил по контролю использования ИИ-инструментов и даже по их полным или частичным блокировкам — это удобно.

Следующий важный шаг — это непрерывный мониторинг активности пользователей и постоянное отлаживание политик безопасности в соответствии с актуальными угрозами. Речь идет не только о контроле посещаемых сайтов, но и о понимании того, какие мессенджеры используют сотрудники, какие приложения установлены на их рабочих станциях и куда именно они могут передавать информацию. Например, наличие на устройстве Telegram и взаимодействие с чат-ботами внутри него может стать дополнительным каналом утечки данных.

Задача специалиста по безопасности в этом случае — анализировать, с какими инструментами взаимодействует команда, какие сценарии использования формируются на практике и где возникают риски утечки конфиденциальной информации. На основе данных, которые собирают и обрабатывают DLP-системы, можно делать обоснованные выводы и своевременно корректировать политики безопасности. К сожалению, реалии таковы, что корректировать политики придется регулярно.

Наиболее радикальный, но в ряде случаев оправданный шаг — это полная блокировка копирования фрагментов конфиденциальных данных из буфера обмена. Мера жесткая, но эффективная: она напрямую ограничивает возможность вынести информацию за пределы защищенного контура.

Такой подход можно применять точечно — для отдельных сотрудников или групп с повышенным уровнем доступа, — либо использовать как временную меру на этапе настройки и отладки политик безопасности. Это позволяет быстро снизить риски, пока более гибкие механизмы контроля еще не настроены в полной мере.

В заключение

Генеративные модели очень стремительно развиваются, постоянно возникают новые, а интерес сотрудников к их использованию только растет. Поэтому одного регламента и контроля недостаточно — необходимо внедрять практику обучения команды безопасной работе с ИИ-инструментами. Пишите понятные регламенты, создавайте короткие методички, проводите вебинары и рассылки. Важно не просто формально донести правила, а научить людей применять их на практике: например, отличать фишинговые страницы от легитимных сервисов.

Более того, в условиях быстрого развития ИИ-инструментов обучение не может быть разовым: его нужно постоянно обновлять, по сути каждые несколько месяцев, чтобы учитывать появление новых сервисов — и новых сценариев их использования.

Такое обучение — это не только про защиту бизнеса, но и про заботу о сотрудниках. Далеко не все понимают, как использовать ИИ безопасно, и компания может помочь им в этом.

Falcongaze
Автор: Falcongaze
Уже 15 лет наша DLP-система помогает сотням компаний защититься от утечек конфиденциальной информации, выявить неблагонадежных сотрудников и защитить свою репутацию.
Комментарии: