Белый дом хочет получать новые ИИ-модели раньше всех пользователей в мире и использовать их для разведки

изображение: grok
Администрация Дональда Трампа обсуждает указ о создании рабочей группы по искусственному интеллекту и ранней государственной проверке новых моделей до их публичного запуска. По данным The New York Times, с планами уже ознакомили руководителей Anthropic, Google и OpenAI. Формально власти не собираются получать право блокировать релизы, но хотят заранее видеть возможности новых систем, оценивать риски и понимать применимость подобных моделей в интересах Пентагона и разведки.
Идея выглядит резким разворотом в американской ИИ-политике. Ещё недавно Дональд Трамп продвигал линию на дерегулирование и называл искусственный интеллект одним из главных инструментов технологического соревнования с Китаем. Администрация отменила процедуры оценки безопасности, введённые при Джозефе Байдене, и публично сигналила индустрии об отсутствии лишних правил для разработчиков. Теперь Белый дом сам хочет оказаться среди первых пользователей самых новых моделей.
По информации The New York Times, обсуждаемая схема устроена не как цензура релизов, а как ранняя экспертиза. Государство получает доступ к модели до публичного запуска, проверяет возможные риски и одновременно оценивает её полезность для оборонных и разведывательных задач. Вопрос упирается не только в защиту общества от опасных возможностей ИИ, но и в скорость доступа американских ведомств к таким технологиям.
Интересно, что Белый дом фактически признал самые мощные ИИ-модели инфраструктурой двойного назначения и больше не воспринимает их как обычный коммерческий продукт.
Похожая модель уже работает в Великобритании. Там AI Security Institute тестирует передовые ИИ-системы до публичного выхода и проверяет соответствие требованиям безопасности. В США функции подобного рецензента могут распределиться между несколькими структурами:
- Агентство национальной безопасности;
- Управление национального кибердиректора Белого дома;
- Офис директора национальной разведки;
- межведомственная рабочая группа администрации;
- профильные подразделения Пентагона.
Главным триггером для разворота стала модель Mythos от Anthropic. По данным The New York Times, система способна находить критические уязвимости в программном обеспечении на таком уровне, что компания отказалась выпускать её в общий доступ. Для Белого дома это стало тревожным сигналом. Появление подобной модели в руках злоумышленников или её использование в громкой атаке политически повесит ответственность на администрацию.
Источники The New York Times объясняют новую позицию 2 мотивами. Первый связан с политическим риском. При помощи ИИ-модели в крупной кибератаке власти не смогут сослаться на проблему частной компании. Второй мотив гораздо более практичный. Пентагон и разведка хотят первыми получать доступ к кибервозможностям с преимуществами в нескольких задачах:
- поиск уязвимостей в инфраструктуре противника;
- анализ открытых и закрытых разведданных;
- ускоренная обработка перехваченных коммуникаций;
- автоматизация сложных операций в киберпространстве;
- работа с большими массивами технических данных.
Внутри администрации тоже изменилась расстановка сил. В марте ушёл главный по ИИ в Белом доме Дэвид Сакс с его дерегуляторным курсом. Его функции перешли к главе аппарата Сюзи Уайлс и министру финансов Скотту Бессенту. Оба, по данным The New York Times, намерены активнее заниматься ИИ-политикой. Также обсуждается роль Center for AI Standards and Innovation, агентства, созданного при Джозефе Байдене для добровольной проверки моделей и фактически замороженного после возвращения Дональда Трампа.
Самым сложным узлом остаётся конфликт администрации с Anthropic. Весной Пентагон расторг контракт на 200 млн долларов и присвоил компании статус угрозы для цепочки поставок. Подобное ограничение раньше чаще ассоциировалось с китайскими компаниями. После этого Anthropic подала на правительство в суд. Сложилась странная ситуация с одновременным конфликтом государства и потребностью государства в технологиях разработчика.
Военные продолжают использовать Claude в системе Maven для анализа разведданных и подбора целей в войне в Иране. Агентство национальной безопасности уже применяет Mythos для оценки уязвимостей в правительственной инфраструктуре Microsoft. В прошлом месяце Сюзи Уайлс и Скотт Бессент встречались с генеральным директором Anthropic Дарио Амодеи для обсуждения возвращения технологий компании в государственные системы.
Сами ИИ-компании относятся к идее ранней проверки неоднозначно. Часть руководителей опасается замедления США в соревновании с Китаем при избыточном надзоре. Для разработчиков значима скорость выпуска моделей, поскольку рынок движется быстро, а каждый дополнительный этап согласования даёт конкурентам шанс догнать лидеров.
Журналисты NYT отмечают, что 50% республиканцев и 51% демократов в США уже скорее обеспокоены, чем вдохновлены расширением ИИ в повседневной жизни.
Подобные настроения дают администрации политическое пространство для более строгой позиции, даже несмотря на прежние заявления о свободе индустрии. Новая линия Белого дома идёт вразрез с тезисом вице-президента Джей Ди Вэнса. Годом ранее в Париже он говорил о победе в гонке ИИ за теми, кто строит новые модели, а не за теми, кто переживает о безопасности.
История хорошо ложится в глобальный тренд. Государства хотят не просто регулировать ИИ, а получать доступ к самым сильным моделям раньше рынка. Для разработчиков это создаёт новую реальность, где релиз модели оценивается по нескольким параметрам сразу:
- качество ответов и общая полезность модели;
- скорость работы и стоимость использования;
- возможности для киберопераций и разведки;
- потенциал для оборонных задач государства;
- риски в области дезинформации и атак.
Ранее сообщалось о превращении российского рынка ИИ в самый конкурентный сегмент программного обеспечения. По исследованию MWS Cloud из МТС Web Services, рынок ПО в России олигополизируется, но искусственный интеллект остаётся наиболее открытым направлением. В 2026 году на топ-5 игроков в ИИ приходилось 36% рынка против 93% в платёжных системах.
Также ранее Ксения Кузнецова, заместитель руководителя направления ИБ-аудитов в УЦСБ, комментировала для CISOCLUB переход Роскомнадзора к цифровому контролю за соблюдением закона о персональных данных. По словам Ксении Кузнецовой, ведомство использует автоматизированную систему мониторинга прав субъектов персональных данных с применением ИИ для анализа сайтов в автоматическом режиме.
Эксперты редакции CISOCLUB отмечают, что ранний доступ государства к новым ИИ-моделям способен снизить вероятность неприятных сюрпризов, но одновременно создаёт новую зону напряжения между разработчиками и властями. По мнению редакции, при прозрачной и ограниченной по срокам проверке подобный шлюз становится полезным фильтром для особо опасных возможностей моделей.
Специалисты CISOCLUB уверены, что превращение процесса в закрытый бюрократический коридор грозит США замедлением собственных лидеров ИИ-рынка и усилением зависимости государства от нескольких частных лабораторий. Бизнесу и регуляторам других стран стоит внимательно наблюдать за американской моделью, поскольку именно её пример с большой вероятностью станет шаблоном для других государств.


