Мошенники стали чаще использовать дипфейки — ЦБ
Виртуальные клоны «притворяются» людьми и вымогают деньги у их близких
Банк России предупредил об участившихся случаях использования дипфейк – видео мошенниками. Злоумышленники отправляют сгенерированные нейросетями видео с изображением того или иного человека его близким и просят перечислить деньги.
Как указывает ЦБ, в коротких роликах сообщается о проблеме, для решения которой срочно требуются деньги. Это может быть ДТП, болезнь или увольнение.
Кроме того, дипфейковые клоны «притворяются» работодателями или известными личностями в той области, которой занимается потенциальная жертва. Материалы для имитации голоса и изображения злоумышленники получают путем взлома аккаунтов в соцсетях.
Как защититься
В качестве мер защиты регулятор предлагает обязательно перезвонить человеку, который якобы попал в тяжелую ситуацию.
Также можно изучить полученное видео с точки зрения монотонности повествования, естественности выражения лица и мимики.
Весной 2024 года в Госдуме задумались над введением наказания за незаконное использование голосов, изображений и биометрических данных россиян. До этого платформу по выявлению дипфейков поручили разработать Минцифры.
Фото на обложке: Tero Vesalainen /
- Большинство пользователей не могут отличить дипфейк от настоящей фотографии Реальные снимки также могут восприниматься как искусственно созданные 03 июня 2025, 18:03
- Бизнес раскритиковал возможность прослушки в законопроекте против мошенников Это может нарушать права человека, считают представители компаний 19 марта 2025, 13:51
- «Сбер» предупредил об активном использовании ИИ мошенниками в 2025 году Нейросети позволят преступникам красть деньги на татарском языке 04 марта 2025, 15:47
- Партнёрский материал Анна Выборнова, клуб «Движение»: «Через искренность получается хорошо устанавливать деловые связи» О партнёрствах на рынке недвижимости и искусстве делиться факапами