Банк России предупредил об участившихся случаях использования дипфейк – видео мошенниками. Злоумышленники отправляют сгенерированные нейросетями видео с изображением того или иного человека его близким и просят перечислить деньги.
Как указывает ЦБ, в коротких роликах сообщается о проблеме, для решения которой срочно требуются деньги. Это может быть ДТП, болезнь или увольнение.
Кроме того, дипфейковые клоны «притворяются» работодателями или известными личностями в той области, которой занимается потенциальная жертва. Материалы для имитации голоса и изображения злоумышленники получают путем взлома аккаунтов в соцсетях.
Как защититься
В качестве мер защиты регулятор предлагает обязательно перезвонить человеку, который якобы попал в тяжелую ситуацию.
Также можно изучить полученное видео с точки зрения монотонности повествования, естественности выражения лица и мимики.
Весной 2024 года в Госдуме задумались над введением наказания за незаконное использование голосов, изображений и биометрических данных россиян. До этого платформу по выявлению дипфейков поручили разработать Минцифры.
Фото на обложке: Tero Vesalainen /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- 1 Конкурс Telegram, новое юрлицо Avito, цифровой рубль в кредитовании: главное для бизнеса 5 октября
- 2 Россиян предупредили о мошенничестве через поддельные профили сервисов доставки
- 3 Путин поручил ввести дополнительные меры для борьбы с мошенниками
- 4 ВТБ предупредил о росте мошенничества с обновлением банковских приложений
- 5 Эксперты по кибербезопасности предупредили россиян о новом виде мошенничества с сим-картами
ВОЗМОЖНОСТИ
05 октября 2024
05 октября 2024
07 октября 2024