Эксперты прогнозируют рост числа хакерских атак с использованием дипфейков

Эксперты прогнозируют рост числа хакерских атак с использованием дипфейков

Изображение: Sander Sammy (unsplash)

Масштабы угроз, связанных с дипфейками, могут значительно возрасти в ближайшие годы. Об этом предупредил исполнительный директор MTS AI Дмитрий Марков. По его словам, через три года количество кибератак с применением технологий дипфейка может достигнуть десятков млн.

Причина — стремительное распространение инструментов на основе искусственного интеллекта, которые перестают быть уделом специалистов и становятся доступными для широкой аудитории. Теперь любой пользователь может не только сгенерировать текст, но и воссоздать голос или визуально подменить лицо в видеоматериале.

Дмитрий Марков в беседе с РИА Новости обратил внимание на то, что сейчас официальная статистика насчитывает лишь десятки тыс. подобных атак, но реальные масштабы могут быть гораздо больше. Он подчеркнул, что многие пострадавшие не обращаются за помощью и не подают жалобу, если не надеются вернуть похищенные средства. Поэтому за рамками официальных цифр может скрываться куда более тревожная картина.

Особое беспокойство у эксперта вызывает тот факт, что технологии создания дипфейков опережают по темпам развития методы их обнаружения. Он отметил, что для создания аудиоподделки достаточно короткой записи — всего 10–15 секунд речи. Наиболее частым сценарием становятся голосовые фальсификации: преступники синтезируют речь, используя отдельные фрагменты голоса человека. Такие подделки применяются для обмана, когда злоумышленники выдают себя за близких или коллег жертвы с целью хищения денег.

В области видеообмана особенно распространена замена лица. Дмитрий Марков рассказал, что преступники используют внешность другого человека, чтобы выстроить ложный контакт, например, в сервисах знакомств. В подобных ситуациях, по его словам, может использоваться лицо девушки, чтобы завлечь доверчивых мужчин в мошенническую схему. Кроме того, активно применяется метод синхронизации губ с заранее записанной аудиодорожкой или сгенерированным текстом, что позволяет создавать реалистичные, но поддельные видео. Нередко это используется для имитации видеосообщений от родственников жертвы, с целью вымогательства денег через мессенджеры.

На фоне растущей угрозы встает вопрос о методах противодействия. Дмитрий Марков указал на то, что уже существуют нейросетевые системы, способные выявлять аудиодипфейки почти мгновенно. Им требуется всего несколько секунд для анализа, и уровень точности при этом достигает 98,29%. Такие алгоритмы учитывают множество нюансов — от особенностей шумов до структуры речи, включая интонации, паузы и длительность звуков. По словам Маркова, эти детали помогают отличить подделку от настоящего голосового сообщения.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: