Эксперты считают, что использование ИИ снизит объёмы утечек данных в 10 раз

Эксперты считают, что использование ИИ снизит объёмы утечек данных в 10 раз

Изображение: recraft

Нейросетевые технологии всё активнее используются в сфере киберзащиты, и это уже приносит ощутимые результаты. По информации издания «Известия», в российской ИТ-среде наблюдается устойчивое движение к применению искусственного интеллекта для автоматического поиска уязвимостей в программных продуктах. Участники отрасли считают, что это направление позволит сократить утечки персональной информации минимум в 10 раз.

Специалисты отмечают, что внедрение нейросетевых систем не просто помогает выявлять слабые места в коде, но и повышает уровень анализа. По словам старшего управляющего директора AppSec Solutions Антона Башарина, большие языковые модели научились распознавать потенциальные угрозы на более глубоком уровне. Эти инструменты не только фиксируют рискованные участки, но и выдают развёрнутое объяснение сути проблемы, предлагая при этом конкретные рекомендации по устранению уязвимостей.

Антон Башарин также подчеркнул, что интеграция механизмов безопасной разработки с автоматическим аудитом кода заметно сокращает количество критических изъянов в конечных продуктах. По его словам, там, где такой подход стал нормой, тестирования от специалистов по этичному взлому показывают значительно меньше проблем, чем в случаях, когда защита прорабатывается вручную и фрагментарно.

Оценку тенденции также дал член комитета Госдумы по информационной политике, информационным технологиям и связи, федеральный координатор проекта «Цифровая Россия» Антон Немкин. Он выразил уверенность, что в ближайшие годы использование нейросетей в сфере кибербезопасности не просто усилит защиту информационных систем, но и приведёт к формированию новой архитектуры цифрового контроля.

Антон Немкин сообщил, что в перспективе может появиться централизованная национальная платформа, отслеживающая уязвимости в реальном времени и взаимодействующая с инфраструктурами госсектора и крупнейших компаний.

В то же время он заметил, что автоматизация не отменяет необходимости участия человека. По его словам, даже самая совершенная модель ИИ не способна гарантировать полную точность. Поэтому специалисты должны обязательно перепроверять предложения нейросети, чтобы снизить вероятность ошибок и повысить достоверность результатов.

Евгений Кокуйкин, HiveTrace, прокомментировал для CISOCLUB: «Применение больших языковых моделей в генерации кода и проверке его безопасности становится одним из самых интересных направлений исследований. Мы в сообществе активно следим, насколько эти технологии реально помогают находить уязвимости. Уже появляются яркие примеры вроде XBow, которые автоматически эксплуатируют уязвимости в разных классах систем и занимают призовые места на CTF-чемпионатах. Пока рано делать окончательные выводы о практической эффективности, но направление явно набирает темп и внимание к нему растёт».

Александр Зубриков, CEO ITG Security: «Я считаю, что применение ИИ в процессе разработки ПО, безусловно, способно значительно снизить количество уязвимостей. Но, на мой взгляд, говорить о десятикратном и более сокращении утечек — очень преждевременно. Ведь в функционировании ИТ-продуктов, помимо самого кода, задействовано куда больше сущностей, которые могут стать причиной утечки: инфраструктура, внешние подрядчики, внутренние нарушители и так далее. И эти факторы — причина для значительного объема утечек.

Если говорить о косвенном влиянии ИИ на утечки, например, через повышение эффективности ИБ-процессов, то да, позитивное влияние однозначно уже ощущается. Но ИИ на сегодняшний день не сможет полностью заменить ни ИБ-специалиста в целом, ни отдельные функции ИБ в частности. Упросить и ускорить работу — да, безусловно. Но даст ли это десятикратную эффективность борьбы с утечками — большой вопрос. Поэтому десятикратное сокращение утечек звучит для меня нереалистично, но перспективы у ИИ однозначно огромны».

Руководитель направления по сетевой безопасности холдинга «Цикада» Тимур Джафаров: «Постепенное повышение зрелости процессов разработки программных продуктов и внедрение инструментов автоматизации, включая различные тесты на уязвимости, само по себе приводит к значительному росту уровня защищённости. На фоне этого глобального движения оценить реальный вклад именно технологий искусственного интеллекта пока затруднительно. Потенциал ИИ, безусловно, велик — особенно в аналитике, проверке кода и т.д.

Однако история уже не раз показывала, что использование многообещающих технологий может оказаться дороже, чем «выхлоп» от их применения. Например — история с открытым в прошлом веке термоядерным синтезом, поддерживать который до сих пор дороже, чем его полезная выработка. Время покажет, насколько эффективными окажутся инструменты на основе ИИ в сфере информационной безопасности. А пока эксперименты продолжаются — и это радует».

Артем
Автор: Артем
Представитель редакции CISOCLUB. Пишу новости, дайджесты, добавляю мероприятия и отчеты.
Комментарии: