Системы ИИ будут эффективно защищаться от киберпреступников

Дата: 13.07.2020. Автор: Артем П. Категории: Новости по информационной безопасности

Актуальная проблема нейросетей глубокого обучения – уязвимость к «состязательным кибератакам». Специалисты Университета Иллинойса предлагают инновационный способ обучения нейронной сети, позволяющий обеспечить минимальное количество ошибок и увеличить эффективность работы систем ИИ.

Многие проводимые состязательные исследования сосредоточены на нейросетях распознавания изображений, однако нейросети восстановления, которые базируются на глубоком обучении, в той же степени уязвимы. Данный факт особенно опасен для медицинской отрасли, где такие нейросети применяются для восстановления картинок с медоборудования – КТ, МРТ, результаты рентгенологического исследования и т. д. К примеру, проведенная кибератака может стать причиной того, что нейросеть распознает и покажет злокачественную опухоль в том месте, где ее в реальности не существует.

Реализация новой методики предполагает, что будут сопоставлены нейронные сети, работающие с восстановлением изображений, и сети, создающие образцы состязательных атак, по типу GAN-алгоритмов. С помощью повторяющихся циклов состязательная сеть старается обмануть ИИ, работающий над восстановлением изображений, так, чтобы ИИ создавал элементы, которые не являются частью оригинальных данных. При этом предусмотрено постоянное самоулучшение нейронной сети восстановления изображений, чтобы снизить вероятность ее обмана.

Новая методика была протестирована на множестве востребованных наборах изображений. Несмотря на то, что по показателям восстановления оригинальной информации обученная нейросеть показала высокую эффективность, если сравнивать с другими «отказоустойчивыми» системами, она все равно нуждается в серьезной доработке.

Специалисты по информационной безопасности уже неоднократно обманывали нейросеть с использованием «состязательных кибератак». Например, в начале 2020 г. ИБ-эксперты из компании McAfee показали проведение атаки на несколько автомобилей бренда Tesla, по результатам которого машина начала ошибочно разгоняться с 56 до 136 км/ч. Исследователям удалось обмануть комплекс видеокамер MobilEye EyeQ3 – они просто немного изменили знак скоростного режима на обочине трассы таким образом, чтобы водитель ничего не заподозрил.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Поделиться ссылкой

Артем П

Об авторе Артем П

Автор на портале cisoclub.ru. Добавляйте ваш материал на сайт в разделе "Разместить публикацию".
Читать все записи автора Артем П

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

9 + 7 =