Фишинг нового поколения: как злоумышленники превращают ИИ в оружие

Фишинг нового поколения: как злоумышленники превращают ИИ в оружие

В 2024 году руководители ИТ-служб зафиксировали рост числа кибератак с применением искусственного интеллекта на 51%, согласно исследованию, проведенному по заказу Keeper. Инструменты вроде GPT и DeepVoice позволяют злоумышленникам массово создавать правдоподобные фишинговые письма, подделывать голос и видео, а также подстраивать атаки под поведение жертв.

О том, как нейросети изменили подход к фишингу, какие методы используют киберпреступники и как защититься от новых угроз, рассказывает технический директор IT Task Антон Антропов.

Как нейросети превращают фишинг в оружие

На сегодняшний день существует несколько ключевых сценариев использования ИИ в мошеннических схемах, которые стремительно набирают популярность.

Одна из главных возможностей ИИ — генерация фейковых писем, выглядящих убедительно и профессионально. Такие сообщения могут включать, например, просьбу подтвердить данные или изменить пароль на портале «Госуслуги». Часто тексты дополнительно персонализируются: нейросети анализируют информацию из социальных сетей и мессенджеров, чтобы подстроить содержание письма под поведение, профессию или интересы конкретного человека.

Также ИИ предоставляет еще одно преимущество — возможность быстрой кастомизации сообщений. Если раньше создание фишинговых писем требовало времени и усилий человека, то теперь ИИ способен за секунды сформировать тысячи уникальных вариантов, что резко увеличивает масштаб атак.

Кроме того, нейросети успешно обходят защитные фильтры почтовых сервисов. Хотя современные системы умеют определять вредоносные письма, генеративные ИИ-модели научились их «обманывать». Они намеренно внедряют орфографические или стилистические ошибки, чтобы уйти от распознавания.

Еще одна опасная функция — способность имитировать стиль конкретных людей или организаций. Так, в 2019 году мошенники с помощью ИИ воссоздали голос и стиль письма руководителя немецкой компании Energy AG и отправили от его имени письмо с просьбой срочно перевести 220 тысяч евро. Потенциальный ущерб удалось предотвратить только благодаря внимательности банка.

Более того, злоумышленники активно совершенствуют свои методы, используя ИИ для создания сложных многоэтапных атак, которые включают длительные схемы манипуляции через различные каналы коммуникации.

Как ИИ и дипфейки усилили социальную инженерию

Генеративные модели помогают киберпреступникам создавать «цифровые двойники» и использовать их для выстраивания доверительных диалогов.

Один из ярких примеров — случай с основателем AmoCRM Михаилом Токовининым. В апреле 2025 года он сообщил, что стал жертвой цифрового мошенничества: злоумышленники создали Telegram-группу от его имени, используя имя, фотографии и даже ссылку на официальный реестр блогеров.

Сначала схема строилась на доверии к имени — в группе публиковались якобы «финансовые советы», направленные на то, чтобы убедить людей вкладывать деньги в фиктивные активы мошенников. Позже они перешли к следующему уровню: сгенерировали голосовое сообщение, имитирующее Токовинина. По его словам, голос был «один в один», и только при внимательном прослушивании можно было уловить странности.

Также еще одна ситуация произошла в 2019 году: по данным Wall Street Journal, неизвестные атаковали британскую энергетическую компанию, использовав дипфейк для имитации голоса ее генерального директора. Преступники нашли в открытом доступе аудиозаписи руководителя, на основе которых нейросеть создала убедительную аудиокопию.

С ее помощью был совершен фальшивый звонок финансовому директору — мошенники представились главой компании и потребовали срочно перевести $243 тыс. на счет «поставщика» якобы в рамках важной сделки. Голос звучал настолько реалистично, что сотрудник выполнил инструкцию без сомнений. Перевод ушел на счет в Гонконге, а обман вскрылся уже постфактум.

Социальная инженерия, как метод психологического воздействия с целью получения конфиденциальных данных, с приходом ИИ стала значительно более изощренной. Технологии оказывают влияние на доверие жертвы. Преступники применяют несколько стратегий:

  • Анализ поведения — ИИ способен собирать информацию о поисковых запросах пользователя и действиях в браузере, чтобы лучше понимать интересы и уязвимости человека.
  • Отслеживание геолокации — данные о местоположении позволяют создавать убедительные сценарии. Например, отправить фейковое сообщение от имени локального заведения с предложением оплатить заказ по ссылке.
  • Адаптивность атак — если первая попытка неудачна, система может автоматически изменить формулировку и повторить обращение с новым предложением.
  • Автоматизация общения — чат-боты на базе ИИ способны долго вести переписку с жертвой, чтобы склонить ее к выполнению определенных действий.

Как распознать ИИ-фишинг

Разработчики активно совершенствуют технологии защиты от ИИ-сгенерированных кибератак. Они объединяют традиционные методы с новыми возможностями машинного обучения. Современные инструменты уже способны выявлять поддельные сообщения на этапе получения.

  • Интеллектуальные фильтры. Антиспам-системы все чаще оснащаются нейросетями, обученными выявлять подозрительные письма. Такие фильтры анализируют содержание и контекст обращения.
  • Работа с метаданными. Проверка IP-адресов, технических заголовков и других скрытых элементов писем помогает обнаружить схожие шаблоны штампа спама и заблокировать повторяющиеся атаки до того, как они достигнут получателя.
  • Семантический анализ текста. Даже если сообщение грамотно составлено, системы на основе NLP могут распознать неестественные формулировки или подозрительную структуру. Это позволяет оценить возможность фишинг-атаки.

Помимо технических решений, эксперты по информационной безопасности рекомендуют развивать цифровую грамотность и навыки распознавания угроз.

Специализированные тренинги по социальной инженерии помогают пользователям научиться отличать поддельные просьбы от реальных, даже если они исходят якобы от знакомых людей или коллег.

Также, ИИ может использоваться и для обороны: обученные алгоритмы отслеживают поведение пользователей внутри системы и могут фиксировать нестандартные действия — например, неожиданные запросы на перевод средств. Такие аномалии могут служить сигналом о возможной атаке и позволяют предотвратить последствия заранее.

Базовые принципы защиты от ИИ-угроз

Пока компании инвестируют в сложные и дорогостоящие системы кибербезопасности, обычным пользователям достаточно соблюдать базовые меры цифровой защиты. Простая бдительность и знание ключевых правил уже значительно снижают риск столкновения с кибератаками.

  1. Не передавайте личные данные незнакомым онлайн-сервисам.
    Например, даже простое вступление в чат-бот в мессенджере и отправка ему номера телефона может представлять угрозу безопасности. Избегайте передачи личной информации, особенно системам с элементами искусственного интеллекта — они тоже уязвимы для взлома. Если вас просят ввести данные для получения приза на сайте, обязательно проверьте адресную строку. Она может оказаться поддельной.
  2. Избегайте одинаковых паролей и не сохраняйте их в заметках.
    Хранить пароли на цифровых устройствах без защиты небезопасно. Лучше воспользоваться менеджером паролей — это специальное приложение, которое помогает генерировать и безопасно хранить пароли для всех аккаунтов.
  3. Установите антивирусное программное обеспечение на компьютер. Убедитесь, что его база угроз регулярно обновляется. Используйте только надежные и проверенные источники для скачивания и обновления.

С ростом числа мошенников и активным развитием технологий ИИ угроза фишинга только усиливается. Однако защититься от нее можно.

В заключение

Комбинация современных решений на основе ИИ помогает выявлять атаки на раннем этапе. Технологии, основанные на анализе текста (NLP) и поведенческих моделей, способны фиксировать признаки фишинга даже в грамотно написанных письмах и подозрительной активности пользователей.

Одним из эффективных способов остается двухфакторная аутентификация. Она обязательна не только для рабочих аккаунтов, но и для личных сервисов. В связке с другими защитными механизмами это значительно снижает риск кражи данных и помогает предотвратить атаки еще до того, как они достигнут цели.

IT TASK
Автор: IT TASK
Компания "АйТи Таск" – системный интегратор в области информационных технологий и информационной безопасности.
Комментарии: