Истории / Искусственный интеллект

Актеров дубляжа все чаще привлекают для обучения ИИ. Он может лишить их работы

Ностальгия или экономия?

Елена Лиханова
Текст:
21 февраля 2023, 17:01

Работники из разных отраслей опасаются, что их заменят программой. Это уже происходит в Латинской Америке: актеров озвучания нанимают для записи датасетов и обучения алгоритмов, которые в конечном итоге станут конкурировать с ними за роли. Разработчики ИИ для дубляжа обещают сократить расходы для продюсеров, позволив киноперсонажам говорить на любом языке, сохраняя оригинальный голос.

Многие компании предлагают ИИ-дубляж на испанском языке, хотя немногие из тех, кто приходит в Латинскую Америку, родом из испаноговорящих стран. Подход всегда немного отличается.

  • Deepdub из Тель-Авива обещает синтетические голоса, которые воспроизводят целый спектр человеческих эмоций, что подходит для телешоу и фильмов.
  • Лондонская Papercup делает ставку на нон-фикшн — контент вроде того, что показывают BBC, Sky News и Discovery.
  • Klling из Сеула объединяет ИИ-дубляж с технологией дипфейков, синхронизируя движения губ актеров с голосами, созданными компьютером.

Несмотря на различия, все эти компании защищают свой продукт как более дешевую и быструю альтернативу актерам дубляжа.

Оз Краковски, директор по доходам в Deepdub, рассказывает, что когда требуется дублировать голливудские хиты на другие языки, у искусственных голосов есть преимущество. ИИ позволит персонажу заговорить голосом звезды — например, Моргана Фримана, — сохранив оригинальный голос, при этом используя безупречный испанский с любым местным акцентом или диалектом.

Впрочем, актеров и их поклонников в Латинской Америке это не впечатляет. Мексиканская актриса дубляжа Габриела Гусман говорит: «возможно, ИИ может имитировать голос, но ему никогда не удастся играть как настоящий актер. В нем просто нет души, и точка». Впрочем, критика касается не только абстрактных понятий, но и вполне практических, выходящих за рамки работы на экране.

«Как привести ИИ на Comic-Con, чтобы поговорить с аудиторией? Это просто невозможно... У актеров дубляжа есть поклонники» — рассуждает Гусман.

Несмотря на то, что программы ИИ для дубляжа кажутся безликими, в конечном итоге они зависят от работы людей, потому что софт обучается на реальных выступлениях: для обучения необходимы актеры. Вместе с технической командой они обучают ИИ навыкам для создания искусственного голоса из тысяч записанных фрагментов, зачастую случайных и бессмысленных.

«Они по несколько часов заставляют актеров записывать множество слов и отдельных звуков в разных стилях и тональностях», — рассказывает актер дубляжа. Он попросил сохранить его анонимность, поскольку боится попасть в черный список студий ИИ-дубляжа.

Аргентинский актер дубляжа Алехандро Грауэ рассказывает, что приглашения на запись для ИИ-компаний начали появляться в Буэнос-Айресе несколько месяцев назад. «Когда мне предложили работу, то сказали, что нужно будет записать 10 тысяч слов и мне заплатят 10 тысяч песо (около $52 по официальному курсу)» — вспоминает он.

Два источника в отрасли, которые попросили об анонимности, боясь потерять работу, подтвердили, что Буэнос-Айрес — одно из мест, где собирают данные компании из Европы и Азии, разрабатывающие ИИ для дубляжа. Вероятно, это связано с благоприятным курсом валюты, из-за чего обучать ИИ в стране относительно дешево.

Впрочем, сами компании утверждают, что гораздо важнее долгосрочная экономия, которую они предлагают. Дело не в том, что записывать в Аргентине дешевле, но и сами записи с участием людей являются краткосрочными расходами.

Они обещают, что после того, как записи используют для создания моделей в «банке голосов» или обучения сгенерированных компьютером голосов, имитирующих реальные, продюсерам кино и телевидения придется платить только за защищенные авторским правом голоса. Расходы на переводчиков, актеров, сведение звука и студию звукозаписи останутся в прошлом.

Анонимный источник рассказал изданию Rest of World, что компания дубляжа заставила его подписать соглашение о неразглашении, хотя он просто записывал звуки для датасетов, а не какой-то специфический контент. Он также добавил, что поэтому актеры не смогут публично претендовать на доходы компаний с искусственных голосов.


Читайте по теме:

Самые интересные нейросети: топ-14 сервисов для раскрашивания изображений, генерации текста и не только

Актеров все чаще омолаживают с помощью ИИ. Как это меняет киноиндустрию?

Почему в рекламе все чаще появляются дипфейки знаменитостей


В дополнение к записям голосов используются и другие способы сбора данных. Метод «подбора голоса» обучает искусственный интеллект на оригинальных голосах из фильма. Так программа сможет выучить звуковые и тональные характеристики высшего эшелона голливудских актеров, чтобы перевести и адаптировать их на другой язык. Краковски из Deepdub рассказывает, что для этого требуется всего 2-3 минуты голосовых данных актера.

Deepdub была первой компанией, которая продублировала целый художественный фильм на испанский язык при помощи интеллекта. Это был американский триллер «Каждый раз, как я умираю», выпущенный в 2019 году.

Для него ИИ создал дорожку на «нейтральном испанском» (español neutro) — устном диалекте, который существует только в дублированных фильмах и телепередачах, предназначенных для разнообразного рынка в 550 млн человек, которые преимушественно проживают в Мексике, Колумбии, Аргентине, США и Испании (хотя у европейского испанского есть свой «нейтральный» вариант).

Краковски считает, что со временем дубляж при помощи ИИ может устранить необходимость в «нейтральном испанском».

«В будущем мы сможем разнообразить его более разнообразными диалектами и акцентами, что позволит нам создавать еще более географически специфичный контент» — говорит Краковски из Deepdub.

В настоящее время аудитория также испытывает проблемы с дубляжом, который создан ИИ для контента, менее ориентированного на знаменитостей. Так, когда в роликах на YouTube, озвученных Алехандро Грауэ, его голос заменили искусственным, это вызвало серьезную критику зрителей.

«Не портите это таким ужасным дубляжом!» — написал один из комментаторов.

Но разработчики уверены, что аудитория в конечном итоге привыкнет к этому. Более того, Фил Ньюсом, отвечающий за продакшен в MiLa Media, студии, работавшей над фильмом «Каждый раз, как я умираю», считает, что дистрибьюторам безразлично, каким будет дубляж.

Однако это еще начало, и работа актеров и ИИ все еще странным образом пересекается. Например, в прошлом году на Disney+ состоялась примера сериала «Оби-Ван Кеноби». В английской версии для персонажа Дарта Вейдера использовался голос, созданный ИИ от украинской компании Respeecher. Алгоритм воспроизводил характерный хриплый голос Джеймса Эрла Джонса.

Однако в версии для Латинской Америки его озвучил аргентино-мексиканский актер Себастьян Япур, который играет роль с 2015 года — фактически человек продублировал ИИ-актера.

Япур считает, что продюсеры «клонировали» голос Джонса из-за ностальгии: «Трудно заменить устоявшихся персонажей». Однако, по его словам, хотя в США технологию ИИ иногда используют в художественных целях, что в Латинской Америке «просто пытаются сделать что-то, что уже очень дешево, еще дешевле».

Источник.

Фото на обложке: Unsplash

Подписывайтесь на наш Telegram-канал
Материалы по теме