Госданные могут пустить в обучение ИИ, но только после согласования с ФСТЭК и ФСБ

изображение: grok
В новой версии законопроекта о регулировании искусственного интеллекта появилась возможность обучать суверенные и национальные модели на государственных данных. Подобный доступ предлагается давать только после согласования с ФСТЭК России и ФСБ России. Документ также усиливает роль реестра доверенных ИИ-моделей и закрепляет ответственность операторов и владельцев систем за их защиту.
По данным «Коммерсанта», последняя версия законопроекта получила несколько заметных дополнений. Самое обсуждаемое связано с госданными. Если раньше вокруг ИИ-документа спорили из-за ограничений на происхождение обучающих наборов, то теперь в тексте появилась новая конструкция. Национальные и суверенные нейросети смогут обучаться на данных государства, а доступ к ним пройдёт через согласование с профильными ведомствами.
Для рынка картина выглядит как попытка дать отечественным моделям более богатую сырьевую базу без открытия чувствительных массивов без контроля. Госданные могут быть крайне ценными для обучения ИИ, особенно при работе модели в государственном управлении, социальной сфере, медицине, транспорте, финансах или других регулируемых направлениях. Подобные массивы почти всегда несут риски с персональными данными, служебной информацией и возможными последствиями утечек.
Интересно, что государство одновременно открывает свои данные для ИИ и пускает к ним через двойной фильтр ФСТЭК и ФСБ.
В законопроекте также появляются ответственность операторов и владельцев ИИ за обеспечение защиты моделей. ИИ постепенно выходит из экспериментальной зоны и встраивается в процессы, где ошибка, взлом или утечка наносят реальный ущерб. Чем больше модель получает данных и чем глубже она встраивается в рабочие процессы, тем выше требования к ее контролю и проверке.
Глава Минцифры Максут Шадаев в мае 2025 года заявил «Российской газете» о максимальном приоритете развития нейросетей и ИИ-технологий в России. Новая версия законопроекта хорошо ложится в подобную линию.
Ещё один значимый блок связан со статусом доверенной ИИ-модели. Подобный статус предполагается закреплять только после внесения модели в специальный реестр. Порядок ведения реестра и правила попадания в него установит правительство РФ. Раньше требование о реестре чаще связывали с моделями для объектов критической информационной инфраструктуры и государственных информационных систем.
В новой редакции контур может стать шире. Правительство сможет устанавливать случаи обязательного применения суверенных и национальных ИИ-моделей в банковской сфере по согласованию с Банком России. Для финансового рынка пункт выглядит особенно чувствительным, поскольку банки уже активно применяют ИИ в нескольких направлениях:
- кредитный скоринг клиентов;
- системы антифрода и проверки операций;
- клиентская поддержка через чат-ботов;
- анализ транзакций и подозрительной активности;
- внутренние процессы автоматизации.
Минцифры сообщило «Коммерсанту» о текущей доработке документа вместе с отраслью и заинтересованными ведомствами. В министерстве пояснили, что критерии попадания в реестр доверенных моделей определят отдельными актами уполномоченных органов. Доверенность касается модельных решений для объектов КИИ и государственных информационных систем, а финальная версия пока не готова.
История с законопроектом уже прошла несколько поворотов. Первая версия предлагала жёсткое разделение суверенных и национальных моделей. Для суверенного статуса модель должна была пройти полный цикл в России и силами российских компаний:
- разработка только внутри страны;
- обучение исключительно на российских серверах;
- эксплуатация под контролем российских команд;
- работа с российскими подрядчиками на всех этапах.
Национальные модели могли опираться на иностранные open source-решения, но для обучения должны были использовать российские датасеты. Идеи вызвали критику бизнеса. Рынок предупреждал о нехватке открытых русскоязычных данных и риске ухудшения качества моделей при слишком строгих рамках.
Позже сообщалось об удалении самых спорных ограничений правительством. Представитель аппарата вице-премьера Дмитрия Григоренко рассказывал Радио РБК об исчезновении требований к наборам данных и возможности разработчиков использовать любые доступные источники для обучения.
Сейчас обсуждение выглядит сложнее. Самые жёсткие требования к происхождению данных смягчили, а доступ к государственным данным становится отдельной регулируемой процедурой с согласованием ФСТЭК России и ФСБ России. Для крупных игроков подобная конструкция открывает новые возможности, для небольших разработчиков превращается в очередной бюрократический фильтр.
В «Т-Технологиях» обращают внимание на другую проблему. Текущая версия законопроекта использует названия «суверенная» и «национальная» модель, но не объясняет их сути и порядка применения. Директор по развитию технологий ИИ «Т-Технологий» Алексей Шпильман считает установку требований по национальности или суверенности к основе ИИ технически нереализуемыми задачами.
По мнению Алексея Шпильмана, любые подобные критерии окажутся либо невыполнимыми, либо бессмысленными. Под них, как он считает, смогут попадать почти любые минимально изменённые модели.
В MWS AI считают, что согласование использования закрытых данных с государственными структурами не осложнит обучение ИИ и его работу. Подобная позиция ближе к компромиссной. Для зрелых компаний с опытом работы с регуляторами доступ к государственным данным становится полезным инструментом при понятных правилах и предсказуемых сроках.
При этом бизнес уже спорит не о доступе к госданным, а о том, что значат сами слова «суверенная» и «национальная» модель в новом законопроекте.
Тема ИИ, соответствующего традиционным ценностям, тоже не уходит из российской повестки. Член Комитета Совета Федерации по экономической политике Иван Евстифеев на пленарном заседании Совета Федерации говорил о развитии суверенных и доверенных моделей искусственного интеллекта в России.
Для бизнеса главный вопрос упирается в детали процедуры:
- состав доступных для обучения госданных;
- порядок и сроки рассмотрения заявок;
- требования к инфраструктуре разработчика;
- правила обезличивания данных;
- зоны ответственности при инцидентах.
Для разработчиков ИИ появление реестра доверенных моделей тоже станет значимым ориентиром. Попадание в него откроет доступ к государственным и инфраструктурным заказчикам, но добавит проверок, документов, требований к защите и отчётности. Для крупных компаний пункт может превратиться в конкурентное преимущество, а для малых команд — в барьер при дорогой и долгой процедуре.
Эксперты редакции CISOCLUB отмечают, что идея обучения ИИ на госданных способна ускорить развитие сильных отечественных моделей при понятных правилах доступа и строгой защите самих данных. По мнению редакции, главный риск кроется не в большем объёме информации для моделей, а в отсутствии у рынка точных критериев суверенности, национальности и доверенности.
При формальном описании этих статусов система не даст реальной защиты, а при практичной, прозрачной и технически выполнимой методике реестр доверенных моделей превратится в рабочий фильтр для ИИ в критически важных сферах. Бизнесу и государству предстоит договориться о деталях быстро, иначе хорошая идея рискует увязнуть в бюрократии и потерять смысл к моменту реального запуска.


