Мошенники начали использовать нейросети для атак под видом медицинских консультаций

Изображение: National Cancer Institute (unsplash)
Сфера цифрового здравоохранения становится благодатной почвой для преступных схем, когда на сцену выходит искусственный интеллект. К такому выводу пришли специалисты Оксфордского института интернета, проанализировав рост обращений к ИИ за советами, касающимися здоровья. Исследователи подчёркивают: подобные запросы могут быть опасны не только из-за потенциальной недостоверности ответов, но и из-за того, что этим каналом уже заинтересовались мошенники.
По наблюдению Александры Шмигириловой, представляющей компанию «Код безопасности», нейросетевые технологии пока находятся на раннем этапе внедрения. При всей их кажущейся технологичности, уровень защищённости и точности алгоритмов оставляет серьёзные пробелы.
По её словам, неопределённость и путаница в системах открывают возможности для атак — преступники способны внедриться в процесс получения медицинских консультаций, перехватывая и похищая личную информацию.
Александра Шмигирилова подчёркивает, что особое внимание к этой теме связано с тем, что речь идёт о здоровье. Именно поэтому пользователи склонны доверять даже не вполне проверенным источникам — особенно если те воспринимаются как нейтральные, «холодные» и не подверженные эмоциям.
Такой образ, приписываемый ИИ, способствует тому, что люди готовы воспринимать его как более точного и объективного советчика, чем реального врача. Этим пользуются аферисты, которые, имитируя искусственный интеллект, маскируют собственные цели под заботу о здоровье пользователя.
Аналитик компании Positive Technologies Роман Резников объясняет «Известиям», что активная популяризация чат-ботов, помогающих с самодиагностикой, неизбежно приведёт к всплеску фишинговых атак под видом «интеллектуальных консультантов». По его оценке, за кажущейся поддержкой может скрываться вредоносный код, целью которого становится доступ к конфиденциальной информации и управлению устройством. При этом злоумышленники уже научились использовать большие языковые модели для создания текстов, максимально приближённых к реальным медицинским консультациям, что усложняет распознавание подделки.
По мнению экспертов, подобные схемы будут только множиться — от поддельных мобильных приложений до целых веб-сервисов, замаскированных под помощь пациентам. Риски усиливаются тем, что пользователи склонны разглашать большое количество персональных данных, включая информацию о состоянии здоровья, диагнозах и лекарствах. Всё это может быть использовано для дальнейших атак или продажи в даркнете.



