Истории

«Позвонил начальник, попросил помочь закрыть сделку»: как мошенники используют дипфейки

Истории
Елена Лиханова
Елена Лиханова

Редактор

Елена Лиханова

Трудно представить, насколько широк потенциал использования дипфейков: от смешных роликов, безобидной рекламы и кино до политической пропаганды и порно. Благодаря им Дэвид Бэкхем заговорил на 9 языках, Илон Маск запел по-русски, а фильмография Николаса Кейджа стала еще больше. Разумеется, новая технология также привлекла внимание мошенников. К чему нам готовиться, чтобы не быть обманутыми?

«Позвонил начальник, попросил помочь закрыть сделку»: как мошенники используют дипфейки

В июне сотрудник одной компании получил голосовое сообщение от человека, который представился CEO и попросил «немедленно помочь завершить срочную сделку». Несмотря на то, что голос был практически идентичен оригиналу, запись была создана с помощью компьютерной программы. Специалисты, расследовавшие инцидент, пришли к выводу, что это было дипфейк-аудио...


Консалтинговая компания по безопасности NISOS, расположенная в Алегзандрии, штат Вирджиния, проанализировала голосовое сообщение и определила, что это была подделка, созданная, чтобы обмануть получателя. Об этом говорится в расследовании NISOS.

В последние три года журналисты и исследователи предупреждали о появлении дипфейк-видео — роликов, в которых лица заменены на изображения знаменитостей или политиков при помощи ИИ. Таким образом можно повлиять на выборы или спровоцировать международный скандал. Но пока этого не происходило. Чаще всего технология используется для создания порно — разумеется, без разрешения тех, чьи лица были использованы.

Дипфейки уже начали применять и в криминальном мире. В прошлом году одна компания сообщила, что ее сотрудник перевел злоумышленнику $240 тыс. после того, как получил сообщение от человека, представившегося CEO. NISOS не раскрывает название пострадавшей организации, но согласилась поделиться аудио.

Сотрудник, который получил сообщение, не поверил в его достоверность и доложил об этом своим коллегам, которые обратились в NISOS для расследования. Специалисты проанализировали файл с помощью инструмента спектрографии Spectrum3d, чтобы выявить любые аномалии.

Исследователь NISOS Дев Бадлу рассказывает: «С этой записью что-то было не так. Похоже, что они просто взяли отдельные слова, вырезали их и сложили вместе».

Бадлу объясняет: он понял, что это фейк, потому что в аудио было много пиков и провалов, что ненормально для человеческой речи. Более того, когда он понизил громкость голоса, на фоне была «мертвая тишина» без каких-либо посторонних звуков — верный признак подделки.

Фото: Vice

Роб Фолькерт, другой исследователь из NISOS, сказал, что преступники могут испытывать технологию, чтобы увидеть, будут ли им перезванивать. Другими словами, это лишь один этап сложной операции.

«Голос в записи очень похож на человеческий. Пока предстоит выяснить, робот это или на самом деле человек, — говорит Фолькерт. — Я бы сказал, что человек. Но не их CEO».

Несмотря на то, что в этот раз обман был раскрыт, Фолькерт, Бадлу и их коллеги считают: это знак, что преступники начали экспериментировать с технологией, и попытка явно не станет последней.

«Возможность генерировать аудиофайлы расширяет инструментарий киберпреступников, и в конечном счете им все равно приходится использовать тактику социального инжиниринга, чтобы склонить кого-то к действиям, — говорится в отчете NISOS. — Преступники и госструктуры учатся друг у друга, поэтому, как только подобные случаи становятся известнее, мы ожидаем, что все больше людей будут использовать технологии и перенимать чужой опыт».

Источник.

Фото на обложке: Rido / Shutterstock

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Дипфейки в рекламе и кино: как использовать технологию во благо
  2. 2 Борьба с дипфейками и AR в пресс-релизах: чем ваша PR-служба может заняться уже сегодня
  3. 3 Google создала 3 тысячи дипфейков для борьбы с дипфейками
  4. 4 Как вымышленный «я» обманывал людей на Kickstarter

Актуальные материалы —
в Telegram-канале @Rusbase