Банк России предупредил об участившихся случаях использования дипфейк – видео мошенниками. Злоумышленники отправляют сгенерированные нейросетями видео с изображением того или иного человека его близким и просят перечислить деньги.
Как указывает ЦБ, в коротких роликах сообщается о проблеме, для решения которой срочно требуются деньги. Это может быть ДТП, болезнь или увольнение.
Кроме того, дипфейковые клоны «притворяются» работодателями или известными личностями в той области, которой занимается потенциальная жертва. Материалы для имитации голоса и изображения злоумышленники получают путем взлома аккаунтов в соцсетях.
Как защититься
В качестве мер защиты регулятор предлагает обязательно перезвонить человеку, который якобы попал в тяжелую ситуацию.
Также можно изучить полученное видео с точки зрения монотонности повествования, естественности выражения лица и мимики.
Весной 2024 года в Госдуме задумались над введением наказания за незаконное использование голосов, изображений и биометрических данных россиян. До этого платформу по выявлению дипфейков поручили разработать Минцифры.
Фото на обложке: Tero Vesalainen /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
-
Пройти курс «Наличка: как использовать, чтобы не нарушить 115-ФЗ»
- 1 МВД России предупреждает о новой схеме мошенничества с использованием золотых слитков и монет
- 2 Россиян обяжут регистрироваться на маркетплейсах через «Госуслуги»
- 3 Мошенники стали чаще маскировать фишинг под письма от работодателя
- 4 Дуров пообещал французским следователям «улучшить» модерацию Telegram