Разграничение доступа к результатам ИИ по меткам конфиденциальности и ролям

Разграничение доступа к результатам ИИ по меткам конфиденциальности и ролям

За последние несколько лет искусственный интеллект перестал быть экспериментом и всё чаще используется в рабочих процессах для анализа документов, подготовки отчётов, поддержки управленческих решений и работы с персоналом и клиентами. При этом в большинстве организаций фокус защиты по-прежнему сосредоточен на исходных данных и инфраструктуре, тогда как результаты работы ИИ остаются вне полноценного контроля. Это создаёт риски, которые часто проявляются уже после внедрения — когда информация начинает свободно распространяться внутри компании.

На практике это одна из самых уязвимых точек. Именно результаты ИИ, такие как отчёты, сводки, прогнозы, текстовые выводы чаще всего начинают свободно распространяться внутри организации, пересылаться по почте, сохраняться вне контролируемых систем и использоваться повторно без учёта контекста их формирования. С точки зрения ИБ это полноценная информация, которая может содержать персональные данные или управленческие выводы, не предназначенные для широкого круга лиц. Именно поэтому доступ к таким результатам должен выстраиваться системно — через метки конфиденциальности и ролевую модель.

Почему результаты ИИ требуют отдельного разграничения доступа

Результат работы ИИ — это не просто текст или отчёт. Это информация, сформированная на основе анализа, агрегации и интерпретации данных. Даже если исходные сведения были обезличены или распределены по разным системам, итоговый вывод может восстановить контекст и повысить конфиденциальность информации.

С точки зрения информационной безопасности это означает, что если результат ИИ содержит персональные данные или сведения ограниченного доступа, к нему применяются те же требования, что и к любой другой защищаемой информации. Такой подход напрямую вытекает из логики 152-ФЗ «О персональных данных» и требований ФСТЭК России к защите информации в ИСПДн и государственных информационных системах — защита должна обеспечиваться на всех этапах обработки, включая отображение и предоставление пользователям.

Метки конфиденциальности в ИИ-системах

Метки конфиденциальности позволяют формализовать уровень чувствительности результата ИИ и задать правила его использования. В практике ИБ это давно применяемый механизм, который логично переносится и на ИИ-сервисы.

Для результатов ИИ метка может присваиваться автоматически на основе источников данных, контекста запроса и типа выполняемой операции. Например, если модель использует кадровые или финансовые данные, результат должен маркироваться как содержащий персональные данные или конфиденциальную информацию. В ряде случаев допустимо подтверждение или корректировка метки ответственным сотрудником.

Ключевой принцип здесь прост: пользователь должен получать только тот объём информации, который соответствует его задачам и полномочиям, а не весь результат целиком.

На практике для ИИ могут использоваться, например, следующие категории:

  • общедоступная информация — результаты, не содержащие чувствительных данных;
  • служебная информация — данные для внутреннего использования;
  • конфиденциальная информация — коммерческие сведения, внутренняя аналитика;
  • персональные данные — любая информация, позволяющая идентифицировать физическое лицо.

Присвоение метки может происходить автоматически — на основе:

  • источников данных, использованных моделью;
  • типа запроса пользователя;
  • бизнес-контекста операции.

Ролевая модель доступа к результатам ИИ

Метки конфиденциальности работают эффективно только в связке с ролевой моделью доступа. Речь идёт о распределении прав не по принципу «есть доступ к системе или нет», а по роли пользователя в бизнес-процессе.

В ИИ-системах роли, как правило, включают пользователей-инициаторов запросов, аналитиков, руководителей, администраторов платформы и специалистов по ИБ. Для каждой роли должны быть заранее определены допустимые уровни конфиденциальности результатов и формат их отображения.

На практике это означает, что один и тот же результат ИИ может выглядеть по-разному. Руководитель получает обобщённые выводы, специалист — детализированную информацию, а пользователь без соответствующих прав видит либо ограниченную версию, либо сообщение об отсутствии доступа. Такой подход соответствует требованиям ФСТЭК к разграничению прав и принципу минимально необходимого доступа.

Типовая ролевая модель может включать:

  • обычных пользователей, инициирующих запросы;
  • профильных специалистов и аналитиков;
  • руководителей подразделений;
  • администраторов ИИ-платформы;
  • сотрудников ИБ и комплаенса.

Для каждой роли заранее определяется:

  • допустимый уровень конфиденциальности результатов;
  • глубина детализации информации;
  • возможность сохранения, экспорта или пересылки результата.

Практическая реализация разграничения доступа

Рабочая схема разграничения доступа к результатам ИИ включает несколько обязательных шагов. Сначала результат классифицируется и получает метку конфиденциальности. Далее система проверяет роль пользователя и сопоставляет её с допустимым уровнем доступа. После этого результат либо отображается в разрешённом объёме, либо доступ к нему ограничивается.

Все обращения к результатам ИИ должны регистрироваться. Логирование действий пользователей — это критически важный элемент, позволяющий проводить расследования, выявлять аномалии и подтверждать соблюдение требований ИБ при проверках.

Соответствие требованиям российского регулирования

Хотя в нормативных документах нет отдельных требований, посвящённых именно ИИ, действующие нормы полностью применимы к результатам его работы. 152-ФЗ обязывает предотвращать несанкционированный доступ и раскрытие персональных данных независимо от способа их обработки. Приказы ФСТЭК России № 17 и № 21 закрепляют необходимость разграничения доступа, регистрации событий безопасности и защиты информации в ИСПДн и ГИС.

С точки зрения регуляторов принципиально не то, используется ли ИИ, а то, создаёт ли его применение новые риски утечки или несанкционированного доступа.

Типовые ошибки при внедрении ИИ

На практике чаще всего встречаются следующие проблемы:

  • результаты ИИ не классифицируются по уровню конфиденциальности;
  • все пользователи получают одинаковый доступ;
  • отсутствует логирование обращений к результатам;
  • ИБ-подразделение подключается уже после внедрения;
  • ИИ-система рассматривается как «вспомогательный инструмент», а не как объект защиты.

Эти ошибки редко связаны с техническими ограничениями — чаще это следствие недооценки рисков.

Заключение

Разграничение доступа к результатам ИИ по меткам конфиденциальности и ролям — необходимый элемент безопасного внедрения ИИ в корпоративной среде. Результаты работы ИИ должны рассматриваться как полноценная информация ограниченного доступа, подлежащая классификации, контролю и аудиту.

Такой подход позволяет снизить риски утечек, обеспечить соответствие требованиям российского законодательства и сохранить управляемость при масштабировании ИИ-решений. В условиях активного внедрения ИИ именно контроль доступа к его результатам становится ключевым фактором устойчивой и безопасной цифровой трансформации.

Автор статьи: Филиппова Анастасия Вячеславовна, специалист по информационной безопасности — Астрал. Безопасность

Астрал.Безопасность
Автор: Астрал.Безопасность
ГК “Астрал” — российская IT-компания, с 1993 года создает и внедряет прогрессивное программное обеспечение и решения на базе искусственного интеллекта. Астрал помогает коммерческим организациям и государственным структурам по всей России выбрать оптимальное ИТ-решение под их бизнес-задачи, бюджет и сроки.
Комментарии: