Российские компании начали подавать в суды на своих сотрудников из-за ИИ

Российские компании начали подавать в суды на своих сотрудников из-за ИИ

Изображение: grok

Российские работодатели начали судиться с сотрудниками и подрядчиками, выполнявшими задачи через нейросети и сдававшими слабый код, спорные стратегии, ошибочные документы и неудачный дизайн. По данным РБК, бизнес пытается взыскать убытки, а суды обычно встают на сторону работников при отсутствии прямого запрета на ИИ в договорах. Главная проблема компаний кроется в том, что результат часто принимали сами работодатели, и доказать вину исполнителя становится крайне сложно.

ИИ-инструменты стремительно переехали из статуса модной игрушки в повседневную работу. Сотрудники с их помощью пишут тексты, собирают данные, готовят презентации, генерируют идеи, проверяют код и закрывают технические задачи. Вместе с обещанной экономией пришёл новый тип конфликтов. Работодатель получает красивый на вид результат, а потом обнаруживает внутри ошибки, повторы, нестыковки и фрагменты без нормальной проверки.

Показательный случай связан с продакт-менеджером стартапа. Сотрудник решил самостоятельно настроить облачный сервис по инструкции от чат-бота. Вместо экономии получилось почти катастрофическое обновление. Данные на серверах компании были почти полностью стёрты, бизнес несколько дней не мог работать, а потом пришлось привлекать внешних специалистов для восстановления из резервной копии.

Интересно, что чат-бот выдал уверенную инструкцию, выглядевшую как настоящая консультация инженера, но за её последствия отвечать никто не собирался.

По данным исследования Ancor и Reforum Future Hub, ИИ в работе используют уже большие группы россиян:

  • 45% сотрудников применяют нейросети регулярно;
  • 36% делают это очень активно и каждый день;
  • чаще всего ИИ поручают тексты и сбор информации;
  • следом идут креативные задачи и оформление материалов;
  • меньшая часть применяет нейросети для технических задач.

Качество результата далеко не всегда радует заказчиков. РБК отмечает в сданных проектах логические разрывы, повторы, фактические ошибки и шаблонные формулировки. Нейросеть быстро собирает черновик, но без экспертной проверки итог выглядит убедительно лишь на 1 взгляд.

Одна история связана с бизнесменом, нанявшим консультанта для анализа нового направления. Исполнитель быстро подготовил отчёт на 50 страниц. Документ выглядел солидно, но при проверке выяснилось игнорирование данных заказчика, пропуск ключевых вопросов и явный след электронного помощника в стиле текста.

Похожие случаи попадают и в маркетинг. По данным РБК, один подрядчик прислал стратегию с анализом не тех конкурентов. Для бизнеса это не мелкая ошибка оформления, а риск принять решение на ложной базе. При построении стратегии на неверных данных компания тратит деньги на не тот рынок и не ту аудиторию.

Отдельная зона риска связана с авторскими правами. Генерация изображений в стиле охраняемых работ художников уже привела к судебным претензиям. Чем активнее бизнес использует генеративные инструменты, тем строже надо проверять происхождение материалов и ограничения на коммерческое применение.

Заказчики при выявлении ИИ-следа пытаются оспаривать договоры и возвращать деньги. По данным РБК, суды обычно смотрят не на инструмент, а на итог работы. При принятой работе и отсутствии запрета на ИИ в договоре вернуть оплату только из-за нейросети сложно.

Нейросети просочились и в работу государственных структур. По данным РБК, патентный поверенный компании UserGate уже получает официальные отказы, явно подготовленные с помощью ИИ. В подобных документах встречаются сомнительные нормы и слабая логика.

Интересно, что нейросетевой брак теперь приходит в бизнес не только от подрядчиков, но и в виде официальных отказов от государственных ведомств.

За рубежом скандалы вокруг ИИ в юридической сфере набирают обороты:

  • Дубайский суд уличил адвокатов в поддельных ссылках через ChatGPT;
  • американская фирма Sullivan & Cromwell извинилась перед судьёй за сфабрикованные прецеденты;
  • британские трудовые трибуналы получили рост дел на 33% летом 2025 года;
  • сотрудники активно используют ИИ для жалоб на работодателей;
  • документы стали звучать официальнее, но искажают факты.

Бизнес всё больше чувствует скрытую цену нейросетевого контента. По подсчётам РБК, разбор некачественных ИИ-материалов отнимает у коллег около 2 часов. Экономия времени превращается в новые затраты на проверку, исправление и юридическую оценку. Работа просто переезжает с автора на редактора, тимлида или юриста для починки последствий.

Эксперты, опрошенные РБК, советуют компаниям внедрять ИИ управляемо через несколько шагов:

  • доступ к алгоритмам через безопасный внутренний контур;
  • фиксация правил применения в трудовых договорах;
  • прописывание зон применения и запретов в политиках;
  • назначение ответственных за проверку ИИ-результата;
  • внедрение регламентов работы с чувствительными данными.

На рынке прогнозируют появление новой роли уровня ИИ-контролёра. Подобный специалист будет проверять результат работы нейросетей, искать фактические ошибки, оценивать правовые риски и следить за качеством данных. Чем больше компаний используют алгоритмы, тем выше спрос на людей с навыком отличать полезный черновик от красиво оформленного мусора.

Ранее сообщалось, что по данным центра исследования киберугроз Solar 4RAYS группы компаний «Солар» в 1 квартале 2026 года доля уязвимостей, связанных с ИИ-ассистентами, чат-ботами и другими сервисами, выросла на 2 процентных пункта и добралась до 5%. Уровень критичности подобных уязвимостей составил 9,2 балла из 10. Среди уязвимых сервисов фигурировали ChatGPT, DeepSeek и Gemini.

Также ранее в России начали обсуждать запуск суверенных и доверенных моделей искусственного интеллекта. Член Комитета Совета Федерации по экономической политике Иван Евстифеев сообщил 29 апреля на пленарном заседании Совета Федерации, что одна часть будущей ИИ-линейки должна соответствовать российским ценностям, а другая получит допуск к ответственным отраслям после специальной проверки. На фоне судебных споров с сотрудниками эта тема выглядит особенно практичной. Бизнесу нужны не только мощные модели, но и понятные правила их использования.

В редакции CISOCLUB уверены, что на сегодняшний день компании слишком быстро ждут от нейросетей экономии, но не успевают выстроить контроль качества и ответственности. Алгоритм ускоряет работу, но не должен заменять экспертизу, проверку и управленческое решение. Без прописанных правил применения ИИ, ограничений на доступ к чувствительным данным и назначенных ответственных за результат судебные споры, ошибки в коде, ложные документы и репутационные потери становятся обычной платой за неуправляемую автоматизацию».

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: