Эксперт Аскерова: оборотные штрафы за утечки данных усилили защиту, но ИИ открывает новые риски

Изображение: recraft
Альбина Аскерова, руководитель направления по взаимодействию с регуляторами Swordfish Security, прокомментировала для CISOCLUB ситуацию с кибершантажом и влиянием оборотных штрафов на рынок. По её словам, оценить реальный масштаб вымогательства сложно, поскольку подобные инциденты редко становятся публичными.
«Шантаж – деяние непубличное, поэтому оценить масштаб довольно сложно, как правило, компании, которые с этим столкнулись, не выносят инцидент в публичное поле», — отметила Альбина Аскерова.
Она подчеркнула, что введение оборотных штрафов уже повлияло на поведение бизнеса. По наблюдениям эксперта, компании в среднем усилили киберзащиту, поскольку риски теперь касаются не только санкций, но и репутационных потерь, напрямую влияющих на финансовые показатели.
«По нашим наблюдениям, оборотные штрафы работают, в среднем бизнес усилил свою киберзащиту. В случае утечки данных компания рискует не только заплатить штраф, но и потерять репутацию, а это напрямую сказывается на ее финансовых показателях, а бизнес умеет считать деньги», — заявила она.
Отдельное внимание эксперт предложила обратить на внедрение искусственного интеллекта в корпоративные процессы. По её словам, ИИ активно используется для обработки чувствительных данных, в том числе при обучении моделей, и эти массивы информации также требуют защиты.
«Бизнес активно внедряет в процессы искусственный интеллект, который тоже использует чувствительные данные, в том числе, при обучении моделей, а эти данные также необходимо защищать», — подчеркнула Альбина Аскерова.
Она сослалась на данные Национального центра искусственного интеллекта при Правительстве РФ, согласно которым 43% российских компаний применяют ИИ в работе, однако лишь у 36% существуют хотя бы минимальные политики безопасности в этой сфере. По её оценке, спектр уязвимостей ИИ-систем остается широким — от намеренного «заражения» обучающих данных до хищения чувствительной информации через специальные промпты.
«Спектр уязвимостей ИИ-систем широк. Это и намеренное „заражение данных“, на которых обучается модель, хищение чувствительных данных с помощью специальных промптов и другие», — отметила эксперт.
В завершение Альбина Аскерова указала, что, несмотря на формирование новых правил регулирования рынка ИИ и работу специалистов по направлению AI Security, требования законодательства о защите персональных данных распространяются и на те данные, к которым получают доступ языковые модели.
