Мошенники стали чаще использовать дипфейки — ЦБ
Банк России предупредил об участившихся случаях использования дипфейк – видео мошенниками. Злоумышленники отправляют сгенерированные нейросетями видео с изображением того или иного человека его близким и просят перечислить деньги.
Как указывает ЦБ, в коротких роликах сообщается о проблеме, для решения которой срочно требуются деньги. Это может быть ДТП, болезнь или увольнение.
Кроме того, дипфейковые клоны «притворяются» работодателями или известными личностями в той области, которой занимается потенциальная жертва. Материалы для имитации голоса и изображения злоумышленники получают путем взлома аккаунтов в соцсетях.
Как защититься
В качестве мер защиты регулятор предлагает обязательно перезвонить человеку, который якобы попал в тяжелую ситуацию.
Также можно изучить полученное видео с точки зрения монотонности повествования, естественности выражения лица и мимики.
Весной 2024 года в Госдуме задумались над введением наказания за незаконное использование голосов, изображений и биометрических данных россиян. До этого платформу по выявлению дипфейков поручили разработать Минцифры.
Фото на обложке: Tero Vesalainen /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Популярное
Налог на прибыль организаций
Материалы по теме
-
Пройти курс «Как открыть бизнес по франшизе»
- 1 Большинство пользователей не могут отличить дипфейк от настоящей фотографии Реальные снимки также могут восприниматься как искусственно созданные 03 июня 18:03
- 2 Бизнес раскритиковал возможность прослушки в законопроекте против мошенников Это может нарушать права человека, считают представители компаний 19 марта 13:51
- 3 «Сбер» предупредил об активном использовании ИИ мошенниками в 2025 году Нейросети позволят преступникам красть деньги на татарском языке 04 марта 15:47
- 4 Основатели ИИ-стартапа DetAFake судятся из-за корпоративного конфликта Разногласия возникли после испытаний разработанной компанией ИИ-модели 24 февраля 11:07