Насколько нейросети опасны в руках преступников
В Минюсте скептически отнеслись к предложенным Минцифры поправкам в Уголовный кодекс, делающими использование ИИ отягчающим обстоятельством для преступников, рассказывает SecPost. Профильные ассоциации, дававшие заключения по документу, также считают, что инициатива может создать противоречия и барьеры для отрасли, поэтому требует конкретизации понятий, например, дипфейков. Между тем ИБ-эксперты отмечают, что ИИ скоро станет основным инструментом мошенников, а один скрипт будет создавать инциденты, для которых раньше требовался целый колл-центр.
Отягчающее или нет
Министерство юстиции дало критическую оценку законопроекту Минцифры, согласно которому использование искусственного интеллекта в мошеннических схемах предлагалось расценивать как отягчающее обстоятельство. Как сообщили «Ведомости», по мнению замглавы Минюста Вадима Федорова, за подписью которого было отправлено заключение по поправкам, такое нововведение приведет к формированию противоречивой правоприменительной практики. Кроме того, понадобятся дополнительные экспертизы, что повысит нагрузку на экспертные учреждения и увеличит сроки рассмотрения уголовных дел.
В Минюсте подтвердили SecPost, что проект поправок в Уголовный кодекс находился на рассмотрении министерства «на предмет проведения правовой и антикоррупционной экспертиз». Заключение направлено в Минцифры.
В пресс-службе Министерства цифрового развития, связи и массовых коммуникаций пояснили, что версия законопроекта, которая оказалась в распоряжении СМИ, уже неактуальна. Однако, какие изменения с того времени внесли в инициативу, в Минцифры не уточнили. «До официального внесения в Госдуму распространять документ не представляется возможным», — отметили SecPost в министерстве.
За то, чтобы сделать использование ИИ в мошенничестве отягчающим обстоятельством, активно выступали силовики. В частности, сделать это предлагал глава Следственного комитета России Александр Бастрыкин на совещании президента Владимира Путина с членами правительства в марте прошлого года.
«Статья 63 (Уголовного кодекса — обстоятельства, отягчающие наказание), которая существует, должна быть дополнена вот этим моментом, что являются отягчающими обстоятельствами, когда используются современные информационные технологии и искусственный разум», — сказал Бастрыкин. Он добавил, что в России уже зафиксированы случаи, когда ИИ «вторгался в систему финансового обеспечения», правда, не сообщил деталей.
Президент в апреле по итогам этого совещания дал поручение правительству вместе с Верховным судом, МВД, СК и ФСБ «рассмотреть вопрос о целесообразности признания в качестве обстоятельства, отягчающего ответственность или наказание, использования при совершении правонарушения (преступления) технологий ИИ и при необходимости обеспечить внесение» поправок в парламент до января 2026 года, сообщалось на сайте Кремля.
От ИИ к дипфейкам
Идею ужесточать наказание за применение ИИ мошенниками поддерживал глава комитета Госдумы по информационной политике Сергей Боярский. «Будем делать отягчающим обстоятельством использование специальных технологий и дипфейков при совершении преступлений — уже в новом антифрод-пакете», — сообщал депутат в своем телеграм-канале в июне.
В Альянсе в сфере искусственного интеллекта считают, что при сегодняшнем отсутствии концептуального регулирования закрепление понятия искусственного интеллекта в Уголовном кодексе в качестве отягчающего обстоятельства несет риски криминализации и формирования противоречий в юридической практике. «Предлагаемое определение ИИ слишком общее, быстро устаревает и может неоднозначно трактоваться в судах, создавая дополнительную нагрузку на судебную систему и барьеры для легального использования технологий», — отмечает генеральный директор альянса Валерия Воробьева.
По мнению Воробьевой, бороться следует с конкретными мошенническими практиками, а не с самим фактом применения ИИ. В частности, такие явления, как дипфейки, можно и нужно четко и однозначно фиксировать в законе, считает она.
В Ассоциации больших данных (АБД) также поддерживают позицию Минюста о необходимости более взвешенного подхода к предлагаемой норме. В АБД считают, что попытка закрепить использование ИИ как отягчающее обстоятельство несет серьезные риски и потенциальные барьеры для ИИ-отрасли, сообщили в пресс-службе объединения. «Мы поддерживаем ужесточение ответственности для мошенников, но считаем принципиально важным фокусироваться на квалификации деяний с учетом их общественной опасности, а не исходя из формального применения тех или иных технологий», — комментируют в ассоциации.
Зампред правления «Сбера» Станислав Кузнецов в октябре на форуме «Диалоги о фейках 3.0» выразил мнение, что для эффективного противодействия мошенникам необходимо признать отягчающим обстоятельством дипфейки. Он отметил, что киберпреступники уже активно используют их, подделывая видео и голосовые сообщения конкретных людей.
Переломный момент
ИИ позволяет мошенникам увеличивать количество атак и масштабировать их, говорит руководитель департамента социальных сервисов Infosecurity (ГК Softline) Константин Мельников. С демократизацией ИИ-технологий эти решения стали доступны широкому кругу пользователей, в том числе злоумышленникам, что привело к заметной эскалации угроз в цифровом пространстве, подчеркнул он.
«Одним из наиболее заметных последствий стал рост фишинговой активности. Во-первых, автоматизация рутинных процессов через ИИ привела к увеличению количества мошеннических ресурсов. Во-вторых, злоумышленники начали активно применять модели для создания фото- и видеоконтента», — отметил Мельников.
Защита от киберугроз, в том числе с использованием ИИ, начинается с осознанности действий, уверен Константин Мельников. Прежде чем скачивать ПО или переходить на сомнительные ресурсы, следует оценивать легитимность этих действий и возможные риски. При этом особую осторожность требуется проявлять в ситуациях, связанных с цифровыми двойниками и дипфейками.
«Дипфейки можно распознать по ряду признаков. Несмотря на высокое качество современных подделок, они редко бывают идеальными», — объясняет Мельников. Чаще всего такие записи ограничиваются изображением лица, шеи и плеч, так как злоумышленники не всегда располагают полными данными о внешности человека. Во-вторых, речевые обороты и произношение могут быть неестественными из-за недостаточной обработки звука.
Не верить глазам и ушам
В дальнейшем тренд на использование ИИ в киберпреступлениях будет активно набирать обороты, а число связанных с этим инцидентов — расти, прогнозирует Константин Мельников. При этом построение абсолютной защиты крайне затруднено. Многие опасные ИИ-сервисы базируются за рубежом, что осложняет контроль и расследования, а их разработчики юридически снимают с себя ответственность, добавил эксперт.
