Adversa AI: хакеры заставляют чат-ботов помогать им в организации киберпреступлений

Adversa AI: хакеры заставляют чат-ботов помогать им в организации киберпреступлений

Изображение: Om siva Prakash (unsplash)

Популярные сейчас технологии искусственного интеллекта могут применяться хакерами для подготовки к киберпреступлениям. В частности, модели ИИ, после их взлома, вполне могут давать рекомендации о том, как именно проводить кибератаки, какое вредоносное ПО для этого использовать и как лучше организовать атаки с применением методик социальной инженерии и фишинга, сообщает израильская компания Adversa AI.

Специалисты израильской компании Adversa AI провели исследование, которое было посвящено тому, имеют ли возможность популярные сейчас боты давать рекомендации пользователям по различным противозаконным деятельностям. В процессе своего исследования аналитики использовали технику Red Team («красной команды»), в процессе которой происходит комплексная имитация реальных кибератак для того, чтобы оценить уровень информационной безопасности атакуемой системы.

В процессе исследования специалисты использовали джейлбрейки — это специальная разновидность атаки на модели искусственного интеллекта, во время которых чат-ботов за счёт специальных вводных данных заставляли отвечать на те вопросы, на обсуждение которых было запрещено разработчиками. И уже после начала тестирования эксперты компании Adversa AI выяснили, что многие популярные технологии ИИ могут давать достаточно опасные советы для преступников без какого-либо особого взлома.

Алекс Поляков, основатель Adversa AI, заявил, что многие популярные чат-боты, которые сейчас особенно востребованы в России и других странах мира, могут давать инструкции по киберпреступлениям и обычным преступлениям без всякого взлома. Иными словами, если в чате спросить искусственный интеллект о том, как совершить то или иное правонарушение, то, в большинстве случаев, технология начнёт отвечать, как ни в чём не бывало.

Александр Самсонов, ведущий эксперт отдела разработки и тестирования компании «Код безопасности», рассказал журналистам издания «Известия», что основной риск в этом случае связан с тем, что современные популярные сейчас модели искусственного интеллекта, в теории, могут выдавать абсолютно любые данные, например, в том числе по подготовке различных преступлений.

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: