ИИ в кибербезопасности: новые правила игры для атакующих и защитников

Искусственный интеллект стремительно меняет правила игры в информационной безопасности. Он снижает порог входа для злоумышленников, делает атаки более персонализированными и массовыми одновременно, а фишинговые кампании — практически неотличимыми от легитимной переписки. В то же время ИИ становится незаменимым помощником для защитников: ускоряет триаж инцидентов, помогает выявлять аномалии и снижает рутинную нагрузку на аналитиков SOC.
Но где граница между реальной пользой и маркетинговым хайпом? Как проверять решения ИИ, чтобы не допустить галлюцинаций с критическими последствиями? Какие специалисты оказываются наиболее уязвимыми перед атакующими, вооружёнными нейросетями? И как изменится рынок ИБ в ближайшие годы?
Редакция CISOCLUB обсудила эти и другие вопросы с экспертами отрасли. Специалисты рассказали, как ИИ уже изменил профиль атак, какие задачи разумно отдавать ИИ, как безопасно внедрять его в защиту и какие метрики действительно показывают эффективность. Своими наблюдениями и рекомендациями поделились:
- Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда».
- Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC.
- Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис».
- Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП».
- Александр Соловьёв, специалист по анализу защищённости, независимый эксперт.
- Иван Бадеха, независимый эксперт АИС.
- Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX.
- Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ.
- Юрий Драченин, заместитель руководителя направления информационной безопасности Контур.Эгида и Staffcop.
- Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион.
- Дмитрий Пензов, технический директор компании ATLAS.
- Юлия Сонина, старший аналитик Аналитического центра УЦСБ.
Как ИИ уже изменил профиль атак на компании, если смотреть на фишинг, социальную инженерию и автоматизацию разведки?
Эксперты сходятся в главном: ИИ не создал принципиально новых типов атак, но сделал существующие качественно эффективнее. Порог входа для злоумышленников снизился — теперь для проведения серьёзных атак достаточно быть продвинутым пользователем LLM. Фишинг стал одновременно персонализированным и массовым, дипфейки вышли на уровень, где клонирование голоса стоит недорого, а OSINT-разведка, требовавшая ранее дней ручной работы, выполняется ботом за минуты.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Если рассуждать о профиле атак, то он изменился скорее не у атак, а у атакующих. Инструменты генерации кода и текстов сделали порог вхождения в «опасный бизнес» ниже. Соответственно, от атакующих требуется меньше знаний для создания ВПО [вредоносного программного обеспечения]. К тому же возросло среднее качество социотехнических атак, включая подделку голоса и видео».
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Под влиянием ИИ атаки стали умнее, короче и дешевле. Барьер входа для злоумышленников заметно снизился, а эффективность атак, наоборот, выросла.
Первое ключевое изменение — это персонализация атак при сохранении массовости. Раньше существовало чёткое разделение: массовые атаки были примитивными, а целевые — дорогими и штучными. Использование ИИ фактически разрушило это ограничение. Сегодня мы видим атаки, где каждый из тысячи запросов в рамках одной кампании может быть уникальным: различаются user-agent, referer, параметры HTTP-запросов, тайминги, поведенческие характеристики. Благодаря ИИ стоимость такой кастомизации практически обнулилась, а эффективность обхода сигнатурных правил выросла кратно.
Второе изменение — исчезновение привычных маркеров вредоносной активности. Грамматические ошибки, некорректные заголовки, примитивные скрипты и другие «красные флаги», на которые раньше опирались защитные механизмы, всё чаще отсутствуют. На уровне L7 OSI мы наблюдаем атаки, где HTTP-трафик практически неотличим от легитимного: заголовки Accept-Language соответствуют GeoIP, TLS-отпечатки совпадают с заявленными браузерами, поведенческие паттерны имитируют человека. Третье важное последствие — резкое сжатие временных окон. За счёт автоматизации всего цикла с помощью ИИ — от сканирования и анализа поверхности атаки до генерации полезной нагрузки — промежуток между этапами разведки и эксплуатации сокращается до часов, что существенно повышает требования к скорости обнаружения и реагирования».
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион, подчеркнул масштабирование атак с минимальными потерями качества:
«BEC-атаки [Business Email Compromise] стали убедительнее — модель легко имитирует стиль общения конкретного руководителя, если «скормить» ей пару его писем. Зафиксированы случаи, где клонированный голос CTO использовался для авторизации переводов. Порог входа — три секунды аудио и $5 на API».
При этом он призвал не впадать в панику: «ИИ — это мультипликатор для уже компетентных атакующих, а не волшебная палочка для скрипт-кидди».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, обратил внимание на другую сторону проблемы:
ИИ всё чаще оказывается не только инструментом атакующих, но и объектом атак. Уже зафиксированы инциденты, связанные с уязвимостями и компрометацией ИИ-систем — от атак на инфраструктуру DeepSeek до утечек данных из западных LLM-платформ. Отдельные риски связаны с неконтролируемым применением ИИ внутри самих организаций.
Иван Бадеха, независимый эксперт АИС:
«Для проведения широкого спектра атак теперь достаточно быть продвинутым пользователем LLM, и эта компетенция порой способна заменить глубокие знания и навыки в предметной области. С применением LLM в связке с уже готовыми фреймворками вроде WormGPT/FraudGPT генерируют персонализированные, грамматически безупречные письма на языке жертвы, учитывающие контекст. Появление инструментов вроде HexStrike наводит на мысль о том, что ИИ в первую очередь приносит пользу в деструктивной деятельности».
Дмитрий Пензов, технический директор компании ATLAS, подтвердил общий тренд: атак стало больше, они стали точнее и дешевле. OSINT, по его словам, превратился из «пару дней вручную» в «пару минут с помощью бота», а социальная инженерия вышла на новый уровень за счёт доступности качественных подделок голоса и видео.
Александр Соловьёв, специалист по анализу защищённости, независимый эксперт, обратил внимание на доступность подделок.
По его словам, с ИИ стало проще создавать копии веб-ресурсов компании — в некоторых случаях достаточно отправить скриншот, и модель воспроизведёт страницу. Выросло и качество дипфейков: «Достаточно пары минут аудио с голосом человека, нескольких фото, которые можно найти в открытом доступе — и персонализированное видеообращение готово».
Юлия Сонина, старший аналитик Аналитического центра УЦСБ:
«Злоумышленники совершили успешную атаку на международную сеть отелей, используя вишинг с имитацией голоса одного из сотрудников для доступа к системе и внедрения шифровальщика, что привело к убыткам $100 млн. Реалистичные дипфейки клонируют голоса и элементы видео — сотрудник регионального офиса финансовой компании совершил перевод $25 млн во время дипфейк-видеозвонка: ИИ сгенерировал фейковые лица CFO и коллег, убедив жертву в срочной секретной транзакции. В 2025 году почта оставалась вектором более 80% атак».
Юрий Драченин, заместитель руководителя направления информационной безопасности Контур.Эгида и Staffcop, предложил более приземлённый взгляд:
по его опыту общения с заказчиками, на практике ИИ используется прежде всего как инструмент автоматизации рутинных процессов — помощь в сборе данных, ускорение типовых операций и формирование отчётов. Доверять ИИ чему-то большему серьёзные заказчики пока не готовы — это осознанная позиция, и в ближайшие пару лет ситуация принципиально не изменится.
Какие признаки в телеметрии и расследованиях помогают отличать атаки с ИИ от «обычных»?
Ключевые маркеры ИИ-атак — полиморфизм при сохранении семантики, аномальная скорость развития сценария, лингвистическая однородность массовых рассылок и адаптивное поведение в реальном времени. Выявлять их помогают UEBA и мониторинг скорости уникальных запросов. Однако специалисты предупреждают: опытный атакующий уберёт следы работы нейросетей, поэтому строить защиту исключительно на детекции «ИИ против человека» не стоит.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Первый признак — полиморфизм при сохранении семантики. Обычный ботнет генерирует вариации через шаблоны: параметры меняются, но структура запроса остаётся стабильной. ИИ-генерация создаёт уникальные запросы с разной структурой, но одинаковым смыслом. У нас был кейс, когда при атаке на API 10 000 запросов имели разные параметры, однако целевое действие было идентичным.
Второй индикатор — аномально высокое качество контекста: корректные токены, релевантные пути навигации, естественные паттерны поведения пользователя. Подобный уровень контекстной точности достижим для человека в единичных сценариях, но его массовое воспроизведение указывает на использование автоматизированных систем.
Третий признак — адаптивное поведение в реальном времени. Классические боты, получив блокировку, либо прекращают активность, либо повторяют одни и те же действия. В атаках с ИИ заметна быстрая смена тактики: модификация заголовков, выбор альтернативных endpoint, изменение темпа запросов. Такая динамика указывает на наличие механизма принятия решений, а не жёстко заданного сценария. Дополнительным признаком могут служить метаданные инфраструктуры атаки — в отдельных случаях при анализе полезной нагрузки обнаруживаются обращения к API языковых моделей или характерные артефакты ML-инструментов».
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«К признакам, которые помогают отличить присутствие ИИ, относятся эмодзи в тексте, коде и комментариях. Это один из самых явных паттернов — ИБ-специалисты уже не раз находили такие артефакты в ВПО. Ещё один сигнал — лингвистическая однородность. Если вы видите 500 фишинговых писем с идеально правильной грамматикой, без опечаток, но с микровариациями в формулировках — это характерный паттерн LLM-генерации».
При этом он предостерёг: «Если атакующий опытный, он уберёт следы работы нейросетей. Не стоит строить защиту исключительно на детекции «ИИ против человека».
Иван Бадеха, независимый эксперт АИС, подчеркнул, что одним из верных признаков атаки с ИИ является аномальная скорость развития сценария. Автоматизированная атакующая система, умеющая просчитывать наперёд миллиарды вариантов, обгонит по скорости вычислений любую, даже самую слаженную команду. В качестве примера он привёл кампанию, обнаруженную в ноябре 2025 года компанией Anthropic: злоумышленник использовал Claude для разведки, написания эксплойтов и сбора данных.
Юлия Сонина, старший аналитик Аналитического центра УЦСБ, указала на возможности анализа UEBA для определения признаков ИИ по нечеловеческим паттернам — например, сканированию уязвимостей на больших объёмах данных или предиктивному выбору целей. Она также отметила, что ИИ маскирует атаки под легитимный трафик, создавая ложные маршруты в логах, и рекомендовала установить мониторинг скорости уникальных запросов как один из ключевых индикаторов.
Какие ИБ-специалисты первыми проигрывают атакующему с ИИ и почему?
Эксперты выделили несколько профилей уязвимых специалистов. Прежде всего — команды, строящие защиту вокруг статических правил и сигнатур. Следом — реактивные «тушители пожаров» с долгими циклами согласования. Отдельно отмечены низкоквалифицированные специалисты и те, кто не рассматривает ИИ как угрозу и не адаптирует свои процессы к новой реальности.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX, выделил три уязвимых профиля. Первый — «хранители статичных правил»: команды, чья защита годами строилась вокруг сигнатур и списков блокировок. «При ИИ-генерации каждая атака становится уникальной по форме, и статическое правило срабатывает только на уже известный шаблон. Пока команда анализирует инцидент и пишет новое правило, атака уже завершена».
Второй профиль — «тушители пожаров», работающие по реактивной модели: пока специалист вручную разберётся с первым эпизодом, атака уже завершилась на десятках других объектов. Третий — команды с сильной защитой на сетевом уровне, но слабым контролем на уровне приложений (L7 OSI).
Дмитрий Пензов, технический директор компании ATLAS:
«L1-аналитик делает триаж по чек-листу, он верит в сигнатуры и хеши как в религию. В случае ИИ-атак это превращается в ад: вариативность фишинга такая, что сигнатурный мир просто тонет в FP и шуме. Вторая зона риска — команды реагирования с долгими согласованиями. Пока они созваниваются и решают, можно ли заблокировать подозрительных персонажей, атакующий уже успел докрутить привилегии и выгрузить данные».
Он также отметил устаревший подход к обучению: «Если учить людей распознавать фишинг по опечаткам, вы учите их ловить динозавров».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, отметил, что традиционно первыми проигрывают те, у кого ИБ — формальность. Следом — специалисты, которые не рассматривают ИИ как угрозу и без ограничений разрешают использование ИИ-систем внутри компании. В среде AppSec/DevSecOps даже родилась шутка: скоро работа сведётся к тому, чтобы отследить, «таскает» разработчик код из ИИ или нет.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», считает, что проигрывают прежде всего низкоквалифицированные специалисты. Он подчеркнул, что набор мер против «обычных» атак вполне способен помочь и против атак с ИИ, но его необходимо грамотно реализовать. При этом возрастает потребность во взращивании киберкультуры в компаниях — бизнес традиционно не любит на это тратиться, из-за чего фишинг остаётся в топ-3 действенных векторов проникновения.
Иван Бадеха, независимый эксперт АИС, сфокусировался на том, что с применением ИИ граница между массовой атакой и APT становится всё тоньше, целенаправленные атаки удешевляются. ИИ вносит непредсказуемость и масштаб, против которых человеческий мозг без усиления своими ИИ-инструментами неэффективен.
Юлия Сонина, старший аналитик Аналитического центра УЦСБ:
«К самым уязвимым категориям относятся те, чьи задачи рутинны и масштабируемы: специалисты по мониторингу и реагированию первой линии, аналитики угроз и специалисты ручного тестирования на проникновение. Человеку физически не успеть за генерацией ИИ — аналитик будет тратить часы на ложные срабатывания, пока злоумышленник с помощью ИИ тестирует новые вредоносные действия в реальном времени».
Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП», добавил, что проигрывают не только защитники: пентестеры и редтимеры, не использующие ИИ в своей работе, тоже уступают атакующим с ИИ.
Какие задачи в SOC разумно отдавать ИИ уже сейчас, чтобы ускорить триаж, корреляцию и расследование, не теряя управляемость?
Все опрошенные эксперты сходятся в главном: ИИ уже сейчас полезен для автоматизации рутины — первичного триажа, обогащения алертов, суммаризации и подготовки выжимок. Однако финальные решения, особенно связанные с блокировками и эскалациями, должны оставаться за человеком. ИИ — ассистент аналитика, а не его замена.
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«Первичный триаж и обогащение алертов: собрать контекст из 10 источников, нормализовать, приоритизировать. LLM с этим справляется и экономит 10–15 минут на инцидент. Суммаризация тикетов и timeline: вместо чтения 200 строк лога получить короткое резюме. Корреляция по natural language запросам: можно задать команду «покажи все события с этого хоста за последние два часа, связанные с сетевыми аномалиями» — это быстрее, чем писать KQL/SPL. Генерация IOC и YARA-правил: черновики по описанию угрозы».
При этом он подчеркнул: «Решения о блокировках, финальные заключения в отчётах, коммуникация с бизнесом — это должно остаться за человеком. Нейросети — это ассистент аналитика, а не его замена».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC:
«Одним из наиболее распространённых примеров является использование ИИ для ответов на вопросы на основании базы знаний (RAG). Имея контекст произошедших событий и инцидентов, аналитик SOC может поставить модели вопрос в свободной форме. В нашем SOC активно используется ИИ-агент, который позволяет не только отвечать на теоретические вопросы, но и предлагать автоматически выполнить ряд действий по плейбуку во время работы с инцидентом. При этом предлагаемые действия берутся из карточки инцидента, что исключает возможность галлюцинаций».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«По различным оценкам, до 60–80% алертов от SIEM составляет шум, что подтверждается и нашими наблюдениями. Автоматизация через SOAR и ML-модели уже сейчас помогает обрабатывать до 25–30% типовых инцидентов. При наличии рекомендаций от ИИ аналитик SOC валидирует эти рекомендации, а не проводит полное расследование — время обработки рутинной карточки сокращается кратно».
Она также подчеркнула: для событий высокой критичности методы автоматической обработки не применяются никогда, а автозакрытие возможно исключительно для низкоприоритетных событий в зоне высокой уверенности модели.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», добавил, что генеративные модели хорошо подходят для подготовки выжимок и выводов по заданным критериям из больших объёмов информации, выступая в роли дополнительного «коррелятора», выдающего человекочитаемый свод аналитики.
Иван Бадеха, независимый эксперт АИС, акцентировал внимание на способности ИИ обогащать алерты контекстом — критичностью актива, историей пользователя, текущими событиями — и формулировать подкреплённые гипотезы при расследовании для дополнительной оценки аналитиком.
Дмитрий Пензов, технический директор компании ATLAS, резюмировал: на практике ИИ хорошо работает как усиленный L1 SOC, но без права на критические действия. Отключить прод, заблокировать ключевого пользователя, снести сервис — это как минимум гибридные решения с обязательным участием специалиста.
Как проверяют, что ИИ в SOC не «галлюцинирует» и не делает выводы без фактов, когда на кону блокировки и простои?
Эксперты сошлись на фундаментальном принципе: последнее слово — всегда за человеком. Для контроля качества работы ИИ используется требование к источникам, двойная проверка, мониторинг дрейфа данных, оценка неуверенности модели и интерпретируемость решений.
Сергей Зыбнев, ведущий специалист отдела по работе с уязвимостями ИС Бастион:
«Модель должна указывать конкретные строки логов, алерты, источники. „Я думаю, что это malware» — не считается полноценным ответом. „На основании события X в логе Y в 14:32″ — принимается. Если модель сомневается в решении, она передаёт информацию и управление человеку. Критичные выводы проверяются второй моделью или скриптами, если есть сильные расхождения — требуется внимательный ручной разбор. Каждое заключение должно быть воспроизводимо. Если нельзя объяснить, почему модель приняла определённое решение, — это явный признак некачественной работы. Любые активные действия сначала проводятся в пробном режиме с логированием».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC отметил, что проверка выполняется с помощью тестирования на заранее подготовленных датасетах и сбора метрик, но даже эти меры не могут гарантировать, что модель не начнёт «выдумывать» в частном случае. Поэтому он предложил стратегию, при которой все финальные решения остаются под ответственностью человека. Модель не должна сама инициировать блокировку, но может предложить такое действие с подробным обоснованием. Если аналитик подтверждает — ИИ помогает автоматизировать вызов операции. Такой подход делает из ИИ советника, не заменяя аналитиков.
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«В первую очередь это интерпретируемость решений для верификации логики модели. Важнейший процесс — валидация на реальных вердиктах: сопоставление итогового вердикта аналитика и прогноза модели. Помимо отслеживания деградации, это позволяет вовремя дообучать модель на новых данных. Классическая рекомендация — мониторинг дрейфа данных: отслеживание статистических изменений, чтобы вовремя понять, что нужно заново обучать модель. Дополнительно целесообразно внедрение оценки неуверенности модели для детектирования ситуаций, когда модель сталкивается с паттернами, не представленными в обучающей выборке».
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», обратил внимание на разницу между моделями: действительно экспертные компании реализуют узкозаточенные нейросети под конкретные задачи — например, выявление определённого набора методов эксплуатации или сетевых аномалий. Отдавать результаты работы больших генеративных моделей сразу в response на текущем этапе было бы «самоубийственно», а вот обеспечить аналитику «ещё одну пару рук» — вполне оправданно.
Иван Бадеха, независимый эксперт АИС, описал практику двойного подтверждения для критичных действий — от двух независимых моделей, либо от ИИ-модели и человека. Также он указал на необходимость постоянного прогона используемых моделей с проверкой выводов как на реальных инцидентах, так и на специально подготовленных данных, провоцирующих ИИ на ошибочные действия. При этом, если риск атаки существенно превышает риск от временной приостановки сервиса, в процесс может закладываться и прямое регулирование со стороны ИИ с возможностью у аналитика выполнить корректирующее действие.
Как меняется детектирование, когда атаки становятся короткими и массовыми, а сигнатуры устаревают быстрее, чем обновляются?
Эксперты констатируют: классический сигнатурный цикл системно отстаёт от времени жизни атаки. На первый план выходят поведенческий анализ, скоринговые модели, анализ на уровне сессий и UEBA. При этом сигнатуры и ML-модели остаются взаимодополняющими инструментами — ни один из них не работает эффективно в одиночку.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«При детектировании важно спрашивать не «что это?», а «как это себя ведёт?». Один из ключевых подходов — анализ на уровне сессии, а не отдельного запроса. Единичный запрос может выглядеть полностью легитимным, однако последовательность из 10–20 запросов уже формирует характерный паттерн. Для этого анализируются типы запросов, тайминги, навигационные модели и взаимосвязи между действиями в рамках одной сессии. Вместо фиксированных порогов вроде количества запросов в секунду информативнее отслеживать резкие отклонения — рост нагрузки на сотни процентов за короткий промежуток для конкретного источника или сессии. Дополнительную гибкость даёт скоринговая модель, комбинирующая несколько слабых сигналов: аномальные тайминги, нетипичные отпечатки клиентов, использование прокси-инфраструктуры. В условиях быстро меняющихся угроз модели должны переобучаться не по жёсткому расписанию, а в ответ на появление новых триггеров — обновление бейзлайнов на основе заблокированных сценариев позволяет сохранять актуальность детектирования».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«Цикл обнаружения уже превышает время жизни атаки — сигнатурный подход системно отстаёт. Но модели машинного обучения более гибкие: они оперируют паттернами в пространстве признаков, а не индикаторами компрометации. Однако модели менее надёжны — это обусловлено их статистической природой. Без контура обратной связи любая модель за несколько месяцев превращается в аналог устаревшей сигнатуры. Сигнатурные правила и ИИ на настоящий момент — два главных взаимодополняющих инструмента».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC, отметил развитие методики обнаружения медленных, растянутых во времени атак: большие языковые модели анализируют произошедшие события и выявляют косвенную связь между ними. Для сложных атак на помощь приходит поведенческий анализ (UEBA), позволяющий фиксировать аномальное поведение рабочих станций и пользователей.
Иван Бадеха, независимый эксперт АИС, добавил, что тактика обеспечения ИБ всё больше базируется на киберустойчивости — способности критичных процессов и сервисов восстанавливаться в установленном объёме и в приемлемые сроки. Он также подчеркнул растущую востребованность интеграции с Threat Intelligence и решениями классов Sandbox, EDR, NTA и UEBA.
Что даёт лучший эффект против ИИ-автоматизации у атакующих: повышение качества данных, пересборка правил или переобучение моделей на собственных инцидентах?
Эксперты предлагают комплексный подход с чёткой последовательностью: сначала качество данных, затем переобучение моделей на собственных инцидентах, и только потом пересборка правил. Особое преимущество получает защищающийся, который знает свою инфраструктуру лучше атакующего.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Первый и главный приоритет — качество данных. Без корректных и полных данных ни правила, ни модели машинного обучения работать не будут. Ключевое — нормализация и обогащение информации: не только IP-адрес, но комбинация IP/ASN, геолокация, репутация и история активности; не только user-agent, но отпечаток клиента, консистентность с заголовками. Важно логировать не только атаки, но и легитимный трафик, чтобы модели понимали, что является нормой. Инвестиции в качество данных дают мгновенный эффект: даже простые правила начинают работать лучше, а ML-модели показывают меньше ложных срабатываний. Второй приоритет — переобучение моделей на собственных инцидентах: дообученные на данных конкретного клиента модели позволяют снизить количество ложных срабатываний на 40–50% при сохранении чувствительности. Третий — пересборка правил. Современные правила уже не ограничиваются блокировкой конкретного паттерна — они используются для оркестрации действий поверх модели, например через скоринговые механизмы. Но это скорее «гигиена» защиты: она необходима, но сама по себе не обеспечивает значимого повышения эффективности против ИИ-атак. Попытка внедрить машинное обучение без качественных данных приведёт к росту ложных срабатываний и потере времени».
Иван Бадеха, независимый эксперт АИС:
«Защищающийся обязан изучить специфику своей ИТ-инфраструктуры глубже и быстрее, чем это сделает атакующий, ведь у него, в отличие от атакующего, нет права на ошибку. Если ваша модель знает ваши нормальные бизнес-процессы, она выявит аномалию, которую обобщённый ИИ злоумышленника не смог замаскировать».
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда», указал, что ИИ-автоматизация у атакующих сейчас работает в основном на модификацию вредоносного кода и подготовку социотехнических материалов. Против этого работают качественная эвристика, ML-детект ВПО и аномалий, обучение персонала.
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, отметил, что решения, развиваемые внутри отечественного рынка, всё чаще демонстрируют сопоставимое или даже более высокое качество по сравнению с зарубежными аналогами, поскольку обучаются на релевантных данных и отражают реальные условия эксплуатации.
Как выстраивать контур безопасной автоматизации, чтобы ИИ мог действовать, но не «ломать» инфраструктуру?
Эксперты выделяют несколько ключевых принципов безопасной автоматизации: нулевое доверие к ИИ, поэтапное внедрение, логирование всех действий, лимитирование автоматических блокировок и обязательная возможность отката. Модель должна работать в рамках контролируемых «рельс», а не принимать критичные решения самостоятельно.
Иван Бадеха, независимый эксперт АИС:
«На текущем этапе развития важно соблюдать принцип нулевого доверия для ИИ-автоматизации — благо, мы пока не готовы персонализировать ответственность на нейросеть. Автоматические сценарии реагирования должны быть неизменяемыми в процессе выполнения и проходить строгий код-ревью. Автоматизация должна быть подконтрольной — вплоть до возможности отключения всех сценариев одной кнопкой. Важно проводить учения по различным сценариям, включая отработку случаев отказа или неправильной работы автоматизации».
Он рекомендовал поэтапное внедрение: начинать с пилотной зоны и действий с низким риском (обогащение алертов, уведомления), затем переходить к среднему риску (изоляция хостов) и только потом — к более критичным действиям.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX, описал принципы на примере веб-защиты:
«Первый принцип — автоматическое реагирование только на явно подозрительные события: известные эксплойты, очевидно вредоносные IP-адреса, атаки, которые можно отсеять с помощью rate limiting. Для менее очевидных случаев применяются механизмы усложнения — CAPTCHA или JavaScript-челлендж — без немедленной блокировки. Второй принцип — тестирование новых правил и моделей в «прокси-режиме»: решения сначала только логируются без фактических блокировок, что позволяет оценить ложные срабатывания и откорректировать параметры. Третий принцип — лимитирование автоматических действий: любая блокировка должна иметь пороговое ограничение. Если лимит превышен, автоматика останавливается и решение принимает человек. Это своего рода аварийный рубильник. Каждое автоматическое действие должно иметь возможность мгновенного отката, а все решения ИИ необходимо логировать с полным контекстом: какие данные использовались, как был рассчитан скор и почему модель приняла именно такое решение».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис», напомнила, что в 2024 году глобальные потери из-за галлюцинаций нейросетей составили $67,4 млрд. Поэтому в её команде приняли решение не доверять ИИ критичные решения, а использовать его исключительно для помощи аналитику. Критичные события всегда обрабатываются человеком, а модели могут лишь приоритизировать остальные события и подсвечивать потенциальных кандидатов на автозакрытие.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«В первую очередь необходимо выстроить модель угроз, в которой целью атакующих могут быть данные, к которым допущен ИИ. Соответственно, применить разграничение доступа, средства защиты СУБД, содержащих критичную информацию. В тех случаях, когда ИИ работает как аналитическая система, к ПДн и подобным данным возможно применить также маскирование. Представив, что ИИ — просто особый вид «подрядчика», которого вы пускаете в свою инфраструктуру».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ:
«Во-первых, LLM должна быть жестко ограничена корпоративным цифровым контуром. Во-вторых, желательно, чтобы модель разрабатывалась внутри самой компании. Допустим и сторонний разработчик, но он должен быть российским. В-третьих, важно соблюдать стандарты внедрения ИИ, которые уже существуют: это, например, рекомендации Сбера и Яндекса, а также известный всем OWASP TOP 10 LLM».
Какие метрики показывают, что ИИ в защите приносит пользу, а не просто увеличивает поток алертов и красивых отчётов?
Эксперты предлагают оценивать ИИ через конкретные бизнес-метрики: снижение MTTD (Mean Time to Detect — среднее время обнаружения) и MTTR (Mean Time to Respond — среднее время реагирования), сокращение рутинной нагрузки на аналитиков при отсутствии роста пропусков, повышение доли истинно положительных срабатываний. Один из экспертов сформулировал важное правило: любая метрика должна подтверждаться как минимум двумя критериями.
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис»:
«Количество рутинной работы, снятой с аналитика, — при условии отсутствия роста пропусков — самая честная метрика. Допустим, стоит задача снижения числа ложных срабатываний правил SIEM, и модель отмечает 75% потока как ложные срабатывания, когда 82% из них подтверждаются аналитиками. Для бизнеса это означает, что один аналитик с помощью модели обрабатывает объём работы, который раньше требовал четверых, а 50% потока закрывается почти автоматически. Важно отслеживать и негативные результаты — пропуски, в том числе низкоприоритетных событий в зоне высокой уверенности модели. Значение в 2% сопоставимо с ошибкой человека при ручной обработке, но всё равно неприемлемо для критичных инцидентов».
Иван Бадеха, независимый эксперт АИС, рекомендовал оценивать ИИ через метрики бизнес-эффекта: снижение MTTD и MTTR, повышение коэффициента точности алертов, рост покрываемой поверхности атаки согласно MITRE ATT&CK, количество инцидентов, разрешённых автоматически без ущерба, а также снижение средней стоимости инцидента за счёт более быстрого и точного реагирования.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Повышение числа выявленных и заблокированных аномальных соединений в сетевом трафике при условии отсутствия роста жалоб пользователей. Сокращение времени триажа условно-нестандартных кейсов при условии отсутствия роста false-positive. Любая метрика должна подтверждаться как минимум двумя критериями».
Павел Пилькевич, инженер-разработчик отдела систем анализа машинных данных STEP LOGIC, выделил ключевые метрики: время реагирования на инциденты, время расследования, количество повторно открываемых расследований и процент подтверждённых алертов. Он подчеркнул, что чаще всего ИИ в SOC не занимается обнаружением алертов — он автоматизирует и ускоряет рутинные задачи аналитиков.
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, полагает, что показательными будут метрики количества инцидентов в сочетании с интегральной оценкой уровня зрелости ИБ компании.
Как изменится рынок ИБ из-за ИИ в ближайшие два года, если смотреть на людей, процессы и технологии?
Большинство экспертов прогнозируют серьёзную трансформацию рынка: рутинные роли будут частично замещены автоматизацией, вырастет спрос на гибридных специалистов, совмещающих навыки ИБ и работы с AI/ML, а базовая защита без ИИ через 2-3 года будет восприниматься как неэффективная. Однако есть и более сдержанные оценки: профессия ИБ-специалиста слишком творческая для полной автоматизации, а влияние ИИ на процессы пока минимально.
Илья Самылов, руководитель команды сопровождения сервисов информационной безопасности NGENIX:
«Многие роли, такие как аналитики SOC, занимающиеся ручным разбором алертов и базовым расследованием, будут частично или полностью замещены автоматизацией. Спрос сместится к специалистам, способным настраивать правила защиты и модели машинного обучения, интерпретировать решения ИИ и проводить продвинутый Threat Hunting. Вырастет потребность в гибридных ролях, совмещающих навыки Security Engineer и Data Scientist. Опытные senior-специалисты станут ещё более ценными — именно их экспертиза необходима для обучения моделей и валидации автоматических решений. Процессы будут перестраиваться вокруг постоянного переобучения: модели обновляются на основе свежих данных, правила адаптируются автоматически. До 80% рутинных операций будут выполняться автоматически, однако финальное решение останется за человеком. Компании будут выбирать интегрированные платформы с ИИ и ML, а CDN и WAF-провайдеры будут интегрировать больше возможностей ИИ в платформу. Через два-три года базовая защита без ИИ будет восприниматься как неэффективная, аналогично тому, как сейчас отсутствие HTTPS считается критическим».
Иван Бадеха, независимый эксперт АИС:
«Весьма вероятно, что исчезнут рутинные роли, такие как аналитик первой линии центра реагирования. Возрастёт спрос на гибридных специалистов: «ИИ-инженер в ИБ», «Аналитик данных по угрозам ИБ», «Аудитор этики ИИ». Ожидаем смещения фокуса с реагирования на предсказание и предотвращение инцидентов, а также киберустойчивость. Циклы подготовки атак и обновления ИИ-моделей будут ускоряться, защита будет требовать всё больше ИИ-компетенций, а циклы Деминга — протекать быстрее. Нас неминуемо ждёт развитие законодательства и стандартов в области ИИ в критических инфраструктурах. С точки зрения технологий — развитие XDR-платформ с встроенным ИИ и расцвет рынка специализированного железа для обучения и инференса моделей. ИИ сделает защиту предиктивной, адаптивной и персонализированной, но создаст и новую гонку вооружений. Ключевым навыком станет умение задавать ИИ правильные вопросы и проверять его ответы. Эволюция ИИ в кибербезопасности — это переход от «защиты периметра» к «защите доверия».
Ирина Меженева, ведущий инженер-аналитик лаборатории технологий искусственного интеллекта аналитического центра кибербезопасности компании «Газинформсервис», прогнозирует появление гибридных архитектур, где правила и модели работают совместно, компенсируя ограничения друг друга. В процессах уже наблюдается внедрение MLOps — мониторинг дрейфа данных, отслеживание качества работы моделей, регулярное дообучение. Требования к квалификации специалистов возрастут, а фокус сместится с разбора шума на сложные расследования.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти компании «Гарда»:
«Маркетинговый взрыв должен закончиться, и производители начнут упоминать ИИ там, где действительно необходимо, а не в каждой презентации. На процессы влияние, на мой взгляд, минимально — профессия специалиста по безопасности слишком творческая, чтобы рассчитывать в ней исключительно на автоматизированные средства, пусть и интеллектуальные».
Кирилл Филимонов, специалист по анализу защищённости ПК «РАД КОП»:
«Специалисты превратятся из непосредственных исполнителей в операторов ИИ для выполнения задач и разрешения галлюцинаций. Технически сложные, но рутинные задачи будут автоматизированы, а творческие продолжат решаться людьми. Процессы будут ускоряться: багбаунти, пентесты, разработка PoC-эксплойтов — всё это автоматизируется с помощью ИИ. Технологии будут больше ориентироваться на интеграцию с языковыми моделями. Уже сейчас мы видим, как появляются плагины для сред разработки, для пентест-инструментов, для средств аналитики. Технологии станут более автономными, снизится, но не исключится роль человека».
Сергей Терешин, presale-инженер по AppSec ГК MONT, руководитель и создатель курсов по ИБ, подчеркнул, что теперь ИБ-специалистам нужно контролировать, как в компании применяют ИИ, и оценивать эти риски. В части процессов ИИ уже неплохо автоматизирует «бумажную безопасность» — регламенты и политики. Он рекомендовал включить ИИ в модель угроз и держать его в фокусе внимания, а также предположил рост спроса на специалистов по безопасности разработки ИИ-решений.
Заключение
Искусственный интеллект уже стал повседневной реальностью как для атакующих, так и для защитников. Эксперты фиксируют общий сдвиг: порог входа для злоумышленников снизился, атаки стали дешевле и изощрённее, а классический сигнатурный подход системно отстаёт от времени жизни атаки. Фишинг, социальная инженерия и OSINT-разведка вышли на качественно новый уровень за счёт генеративных моделей — при этом принципиально новых типов атак ИИ пока не создал.
На стороне защиты ИИ уже приносит ощутимую пользу, но только при чётком понимании его границ. Все опрошенные специалисты сходятся в главном: ИИ — ассистент аналитика, а не его замена; последнее слово всегда остаётся за человеком. Внедрение автоматизации должно быть поэтапным и подконтрольным — от обогащения алертов к более критичным действиям, с обязательной возможностью отката. Без качественных данных, мониторинга деградации моделей и интерпретируемости решений ИИ-инструмент рискует стать источником ложной уверенности.
При этом ожидания от ИИ в отрасли далеко не однородны. Часть экспертов прогнозирует замещение рутинных ролей, прежде всего аналитиков первой линии SOC и рост спроса на гибридных специалистов, совмещающих экспертизу в безопасности и навыки работы с ML. Другие указывают, что профессия ИБ-специалиста слишком творческая для полной автоматизации, а серьёзные заказчики пока не готовы доверять ИИ что-то большее, чем рутинные операции. Вероятно, истина в комбинации этих позиций: специалисты будут превращаться из непосредственных исполнителей в операторов и верификаторов ИИ, а не исчезать.











