Top.Mail.Ru
Истории

К чему привело развитие дипфейков и что будет дальше

Истории
Татьяна Петрущенкова
Татьяна Петрущенкова

Экс-выпускающий редактор. Журналист RB.RU

Татьяна Петрущенкова

Недавно компания из Амстердама Deeptrace Labs опубликовала отчет «The State of Deepfakes: Landscape, Threats, and Impact»‎, в котором исследует дипфейки, распространенные на сайтах, форумах и в мобильных приложениях.

К чему привело развитие дипфейков и что будет дальше
  1. Истории

Хотя многие беспокоятся, что дипфейки будут использоваться для манипулирования выборами и создания хаоса в разных странах, пока подавляющее большинство из них гораздо более «ювенильные»‎: это, например, изображение лиц знаменитостей женского пола на телах порнозвезд (что не должно удивлять никого, кто знаком с историей интернета).

Как объясняет Джорджио Патрини из Deeptrace Labs, исследование началось еще в 2017 году, сразу после основания компании, и заключалось во всесторонней проверке сайтов, форумов и услуг. Исследователи прочесали посты в сообществах по созданию дипфейков, идентифицируя непонятные и нишевые элементы, чтобы получить полное представление об экосистеме. Deeptrace собирал данные с сайтов, форумов и сообществ с помощью общедоступных API и специальных инструментов, разработанных в компании. В рамках исследования компания также просматривала сайты и YouTube-каналы, где не весь контент, вероятно, относился к дипфейкам.

  • Deeptrace Labs нашли 14 678 дипфейк-видео, 96% из которых — порнография. На большинстве видео — лица известных актрис с телами порнозвёзд. Действительно, большинство жертв дипфейков — женщины, в то время как на непорнографические видео в основном попадают мужчины.
  • На более чем 90% дипфейк-видеороликов на YouTube были западные знаменитости — от представителей творческих профессий до политиков и топ-менеджеров корпораций. Но Патрини подчеркивает, что это не только западное явление.

«Незападные сюжеты появляются почти в каждом третьем видео на сайтах с дипфейк-порнографией, герои четверти таких видео — южнокорейские K-pop певицы, — говорит Патрини. — Это говорит о том, что deepfake-порнография становится все более глобальным явлением».

В последние несколько лет произошел взрыв количества работ по генеративным состязательным сетям (GAN). GAN представляют собой две нейронные сети — синтезатор или генератор и детектор — которые создают дипфейк-изображения или видео, а затем улучшают качество продукта с помощью механизма обратной связи. Патрини говорит, что GANs, безусловно, входят в число «самых популярных и эффективных генеративных методов, основанных на глубоком обучении».«Наши данные показали, что хотя в большинстве дипфейков — актёры, есть и заметное меньшинство корпоративных и политических лидеров, — говорит Патрини. — Я думаю, что это может быть связано с виральностью, которая ассоциируется с непорнографическими дипфейками. Создатели — это, прежде всего, любители, которые пытаются делать качественные подделки. Выбор известных персонажей, таких как Илон Маск, Дональд Трамп или Николас Кейдж, означает, что ваш дипфейк с большей вероятностью получит много просмотров, а также добавляет в видео элемент комедии (например, лицо Николаса Кейджа на теле Лоис Лейн в Супермене).

Исследования Deeptrace Labs показывают, что заметный рост объема публикаций о GAN можеть было лишь косвенно связан с дипфейками. Deeptrace не смогли установить прямую причинно-следственную связь между увеличением количества исследований о GAN и дипфейков.

«Все больше людей, не только PhD-кандидаты, могут экспериментировать с алгоритмами и придумывать их новые вариации, [и] мы можем дать косвенную оценку этому по росту числа статей, — говорит Патрини —. Публикации таких экспериментальных работ и появление новых вариантов использования технологии свидетельствует о том, что эти идеи можно превратить код, доступный для повторного использования, и более надежные и эффективные инструменты, которые будут понятны даже неопытным специалистам».


В Deeptrace также отметили, что сообщества по созданию дипфейков растут. Github, 4chan, 8chan и другие форумы делятся дипфейк-алгоритмами с открытым исходным кодом.

«Ключевым моментом, который мы отметили в отчете, является то, что в некоторых сообществах мотивация и активность сильно отличалась от других, — объясняет Патрини. — Если говорить о негативных выводах — нам стало ясно, что часть сообществ и форумов в основном сосредоточены на использовании дипфейк-инструментов для создания неконсенсуальной deepfake-порнографии».

Патрини говорит, что некоторые из этих сообществ известны размещением незаконного контента или контента «на грани»‎, например, 4chan и 8chan. Коммодификация инструментов создания дипфейков на этих платформах, вероятно, приведет к распространению вредных и злонамеренных случаев использования технологии, например, киберзапугивания или политической пропаганды.

Но Патрини также отмечает, что пользователи на других платформах, кажется, больше заинтересованы в создании подделок, похожих на творения Deepfake YouTubers (такие как пользователь Ctrl Shift Face, который превратил комика и импрессиониста Билла Хадера в Тома Круза).

«Я бы не сказал, что эти варианты применения дипфейков позитивны, но они не являются вредоносными по умолчанию», — говорит Патрини. И поскольку дипфейки — это не просто западное явление, Deeptrace считает, что для противодействия злонамеренному использованию потребуются глобальные действия.

«Дипфейки предоставляют значительные возможности для бизнеса, о чем свидетельствует количество различных инструментов и сайтов, которые стали доступны, — говорит Патрини, отмечая, что это также способствует коммодификации этих инструментов. — И одной только идеи дипфейков достаточно, чтобы дестабилизировать политические процессы».


Источник: FastCompany

Фото на обложке: The Daily Dot / derpfakes, YouTube

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

FutureFood
Кто производит «альтернативную» еду
Карта

ВОЗМОЖНОСТИ

14 декабря 2024