Российские компании начали подавать в суды на своих сотрудников из-за ИИ

Изображение: grok
Российские работодатели начали судиться с сотрудниками и подрядчиками, выполнявшими задачи через нейросети и сдававшими слабый код, спорные стратегии, ошибочные документы и неудачный дизайн. По данным РБК, бизнес пытается взыскать убытки, а суды обычно встают на сторону работников при отсутствии прямого запрета на ИИ в договорах. Главная проблема компаний кроется в том, что результат часто принимали сами работодатели, и доказать вину исполнителя становится крайне сложно.
ИИ-инструменты стремительно переехали из статуса модной игрушки в повседневную работу. Сотрудники с их помощью пишут тексты, собирают данные, готовят презентации, генерируют идеи, проверяют код и закрывают технические задачи. Вместе с обещанной экономией пришёл новый тип конфликтов. Работодатель получает красивый на вид результат, а потом обнаруживает внутри ошибки, повторы, нестыковки и фрагменты без нормальной проверки.
Показательный случай связан с продакт-менеджером стартапа. Сотрудник решил самостоятельно настроить облачный сервис по инструкции от чат-бота. Вместо экономии получилось почти катастрофическое обновление. Данные на серверах компании были почти полностью стёрты, бизнес несколько дней не мог работать, а потом пришлось привлекать внешних специалистов для восстановления из резервной копии.
Интересно, что чат-бот выдал уверенную инструкцию, выглядевшую как настоящая консультация инженера, но за её последствия отвечать никто не собирался.
По данным исследования Ancor и Reforum Future Hub, ИИ в работе используют уже большие группы россиян:
- 45% сотрудников применяют нейросети регулярно;
- 36% делают это очень активно и каждый день;
- чаще всего ИИ поручают тексты и сбор информации;
- следом идут креативные задачи и оформление материалов;
- меньшая часть применяет нейросети для технических задач.
Качество результата далеко не всегда радует заказчиков. РБК отмечает в сданных проектах логические разрывы, повторы, фактические ошибки и шаблонные формулировки. Нейросеть быстро собирает черновик, но без экспертной проверки итог выглядит убедительно лишь на 1 взгляд.
Одна история связана с бизнесменом, нанявшим консультанта для анализа нового направления. Исполнитель быстро подготовил отчёт на 50 страниц. Документ выглядел солидно, но при проверке выяснилось игнорирование данных заказчика, пропуск ключевых вопросов и явный след электронного помощника в стиле текста.
Похожие случаи попадают и в маркетинг. По данным РБК, один подрядчик прислал стратегию с анализом не тех конкурентов. Для бизнеса это не мелкая ошибка оформления, а риск принять решение на ложной базе. При построении стратегии на неверных данных компания тратит деньги на не тот рынок и не ту аудиторию.
Отдельная зона риска связана с авторскими правами. Генерация изображений в стиле охраняемых работ художников уже привела к судебным претензиям. Чем активнее бизнес использует генеративные инструменты, тем строже надо проверять происхождение материалов и ограничения на коммерческое применение.
Заказчики при выявлении ИИ-следа пытаются оспаривать договоры и возвращать деньги. По данным РБК, суды обычно смотрят не на инструмент, а на итог работы. При принятой работе и отсутствии запрета на ИИ в договоре вернуть оплату только из-за нейросети сложно.
Нейросети просочились и в работу государственных структур. По данным РБК, патентный поверенный компании UserGate уже получает официальные отказы, явно подготовленные с помощью ИИ. В подобных документах встречаются сомнительные нормы и слабая логика.
Интересно, что нейросетевой брак теперь приходит в бизнес не только от подрядчиков, но и в виде официальных отказов от государственных ведомств.
За рубежом скандалы вокруг ИИ в юридической сфере набирают обороты:
- Дубайский суд уличил адвокатов в поддельных ссылках через ChatGPT;
- американская фирма Sullivan & Cromwell извинилась перед судьёй за сфабрикованные прецеденты;
- британские трудовые трибуналы получили рост дел на 33% летом 2025 года;
- сотрудники активно используют ИИ для жалоб на работодателей;
- документы стали звучать официальнее, но искажают факты.
Бизнес всё больше чувствует скрытую цену нейросетевого контента. По подсчётам РБК, разбор некачественных ИИ-материалов отнимает у коллег около 2 часов. Экономия времени превращается в новые затраты на проверку, исправление и юридическую оценку. Работа просто переезжает с автора на редактора, тимлида или юриста для починки последствий.
Эксперты, опрошенные РБК, советуют компаниям внедрять ИИ управляемо через несколько шагов:
- доступ к алгоритмам через безопасный внутренний контур;
- фиксация правил применения в трудовых договорах;
- прописывание зон применения и запретов в политиках;
- назначение ответственных за проверку ИИ-результата;
- внедрение регламентов работы с чувствительными данными.
На рынке прогнозируют появление новой роли уровня ИИ-контролёра. Подобный специалист будет проверять результат работы нейросетей, искать фактические ошибки, оценивать правовые риски и следить за качеством данных. Чем больше компаний используют алгоритмы, тем выше спрос на людей с навыком отличать полезный черновик от красиво оформленного мусора.
Ранее сообщалось, что по данным центра исследования киберугроз Solar 4RAYS группы компаний «Солар» в 1 квартале 2026 года доля уязвимостей, связанных с ИИ-ассистентами, чат-ботами и другими сервисами, выросла на 2 процентных пункта и добралась до 5%. Уровень критичности подобных уязвимостей составил 9,2 балла из 10. Среди уязвимых сервисов фигурировали ChatGPT, DeepSeek и Gemini.
Также ранее в России начали обсуждать запуск суверенных и доверенных моделей искусственного интеллекта. Член Комитета Совета Федерации по экономической политике Иван Евстифеев сообщил 29 апреля на пленарном заседании Совета Федерации, что одна часть будущей ИИ-линейки должна соответствовать российским ценностям, а другая получит допуск к ответственным отраслям после специальной проверки. На фоне судебных споров с сотрудниками эта тема выглядит особенно практичной. Бизнесу нужны не только мощные модели, но и понятные правила их использования.
В редакции CISOCLUB уверены, что на сегодняшний день компании слишком быстро ждут от нейросетей экономии, но не успевают выстроить контроль качества и ответственности. Алгоритм ускоряет работу, но не должен заменять экспертизу, проверку и управленческое решение. Без прописанных правил применения ИИ, ограничений на доступ к чувствительным данным и назначенных ответственных за результат судебные споры, ошибки в коде, ложные документы и репутационные потери становятся обычной платой за неуправляемую автоматизацию».


