OpenAI заявила о «дистилляции» технологий. DeepSeek подозревают в обходе защит американских моделей

Изображение: Om siva Prakash (unsplash)
Американская OpenAI направила в Конгресс США материалы, в которых утверждает, что китайская компания DeepSeek использовала методы копирования знаний для обучения своих ИИ-моделей, обходя ограничения и защитные механизмы.
Как сообщает Bloomberg со ссылкой на внутреннюю записку, OpenAI уведомила специальный комитет Палаты представителей США по Китаю о признаках применения так называемой дистилляции знаний. Речь идёт о технике, при которой одна модель перенимает поведенческие и функциональные характеристики другой, анализируя её ответы и логику работы.
В компании Сэма Альтмана заявили, что выявили новые, более скрытые способы обхода защитных механизмов, предназначенных для предотвращения несанкционированного использования результатов работы их систем.
Поводом для дополнительного внимания стал релиз модели DeepSeek-R1 с открытым исходным кодом в начале прошлого года. После её выхода OpenAI совместно с Microsoft инициировали проверку, чтобы выяснить, могла ли R1 обучаться на данных, полученных от американских ИИ-разработчиков.
В обращении к законодателям подчёркивается, что дистилляция становится всё более технически сложной, несмотря на ограничения в правилах пользования сервисами OpenAI. По оценке компании, подобные практики в значительной степени связаны с китайскими структурами, а в отдельных случаях — и с российскими пользователями.
В OpenAI также указали на экономический фактор. Многие китайские платформы, в том числе DeepSeek, предоставляют доступ к своим чат-ботам без ежемесячной подписки.
При масштабном распространении дистилляции это может ударить по бизнес-моделям компаний, инвестировавших миллиарды долларов в разработку ИИ и взимающих плату за премиальные функции. В компании считают, что подобная ситуация способна ослабить технологическое преимущество США.
Отдельно в OpenAI отметили, что чат-бот DeepSeek демонстрирует цензурирование ответов по темам, которые в Китае считаются чувствительными. По мнению американской стороны, при копировании знаний через дистилляцию вопросы безопасности могут отходить на второй план, что расширяет использование моделей в сферах повышенного риска, например в биотехнологии или химии.
Внутренний анализ OpenAI показал, что аккаунты, связанные с сотрудниками DeepSeek, предпринимали попытки обхода ограничений через сторонние маршрутизаторы, чтобы скрыть источник запросов. Также сообщается о разработке кода для автоматизированного доступа к американским ИИ-моделям и создании сети неавторизованных посредников для получения их ответов.
