Важно знать про технологии deepfake и распознавать их

Нейронные сети позволяют в реальном времени создавать поддельные видео и голос, создавать любые лица. Эта технология называется deepfake и она уже используется злоумышленниками.
Проверьте себя: какие фотографии здесь не настоящие?
Настоящая тут только моя фотография в центре.
Самое частое применение — социальная инженерия, то есть вам могут набрать голосом вашего начальника или родителей и попросить что-то сделать. Также актуальная угроза — создание видеороликов или звукозаписи для дезинформации общественности.
Как защищаться?
Во-первых нужно знать что такие технологии вообще существуют.
Во-вторых критически оценивать фотографии, видео и звукозаписи, которые вас предоставляют. Подделки очень сложно сегодня отличить от оригинала.
Я записал короткое видео и привел примеры дипфейков из портретов людей с сайта https://thispersondoesnotexist.com/
Источник — персональный блог Батранкова Дениса «Реальная безопасность».




