Top.Mail.Ru
Истории

Актеров дубляжа все чаще привлекают для обучения ИИ. Он может лишить их работы

Истории
Елена Лиханова
Елена Лиханова

Старший редактор RB.RU

Елена Лиханова

Работники из разных отраслей опасаются, что их заменят программой. Это уже происходит в Латинской Америке: актеров озвучания нанимают для записи датасетов и обучения алгоритмов, которые в конечном итоге станут конкурировать с ними за роли. Разработчики ИИ для дубляжа обещают сократить расходы для продюсеров, позволив киноперсонажам говорить на любом языке, сохраняя оригинальный голос.

Актеров дубляжа все чаще привлекают для обучения ИИ. Он может лишить их работы

Многие компании предлагают ИИ-дубляж на испанском языке, хотя немногие из тех, кто приходит в Латинскую Америку, родом из испаноговорящих стран. Подход всегда немного отличается.

  • Deepdub из Тель-Авива обещает синтетические голоса, которые воспроизводят целый спектр человеческих эмоций, что подходит для телешоу и фильмов.
  • Лондонская Papercup делает ставку на нон-фикшн — контент вроде того, что показывают BBC, Sky News и Discovery. 
  • Klling из Сеула объединяет ИИ-дубляж с технологией дипфейков, синхронизируя движения губ актеров с голосами, созданными компьютером.

Несмотря на различия, все эти компании защищают свой продукт как более дешевую и быструю альтернативу актерам дубляжа.

Оз Краковски, директор по доходам в Deepdub, рассказывает, что когда требуется дублировать голливудские хиты на другие языки, у искусственных голосов есть преимущество. ИИ позволит персонажу заговорить голосом звезды — например, Моргана Фримана, — сохранив оригинальный голос, при этом используя безупречный испанский с любым местным акцентом или диалектом.

Впрочем, актеров и их поклонников в Латинской Америке это не впечатляет. Мексиканская актриса дубляжа Габриела Гусман говорит: «возможно, ИИ может имитировать голос, но ему никогда не удастся играть как настоящий актер. В нем просто нет души, и точка». Впрочем, критика касается не только абстрактных понятий, но и вполне практических, выходящих за рамки работы на экране.

«Как привести ИИ на Comic-Con, чтобы поговорить с аудиторией? Это просто невозможно... У актеров дубляжа есть поклонники» — рассуждает Гусман.

Несмотря на то, что программы ИИ для дубляжа кажутся безликими, в конечном итоге они зависят от работы людей, потому что софт обучается на реальных выступлениях: для обучения необходимы актеры. Вместе с технической командой они обучают ИИ навыкам для создания искусственного голоса из тысяч записанных фрагментов, зачастую случайных и бессмысленных.

«Они по несколько часов заставляют актеров записывать множество слов и отдельных звуков в разных стилях и тональностях», — рассказывает актер дубляжа. Он попросил сохранить его анонимность, поскольку боится попасть в черный список студий ИИ-дубляжа.

Аргентинский актер дубляжа Алехандро Грауэ рассказывает, что приглашения на запись для ИИ-компаний начали появляться в Буэнос-Айресе несколько месяцев назад. «Когда мне предложили работу, то сказали, что нужно будет записать 10 тысяч слов и мне заплатят 10 тысяч песо (около $52 по официальному курсу)» — вспоминает он.

Заставь искусственный интеллект самообучаться и совершенствоваться – выбирай онлайн-курсы в каталоге курсов по машинному обучению.

Два источника в отрасли, которые попросили об анонимности, боясь потерять работу, подтвердили, что Буэнос-Айрес — одно из мест, где собирают данные компании из Европы и Азии, разрабатывающие ИИ для дубляжа. Вероятно, это связано с благоприятным курсом валюты, из-за чего обучать ИИ в стране относительно дешево.

Впрочем, сами компании утверждают, что гораздо важнее долгосрочная экономия, которую они предлагают. Дело не в том, что записывать в Аргентине дешевле, но и сами записи с участием людей являются краткосрочными расходами.

Они обещают, что после того, как записи используют для создания моделей в «банке голосов» или обучения сгенерированных компьютером голосов, имитирующих реальные, продюсерам кино и телевидения придется платить только за защищенные авторским правом голоса. Расходы на переводчиков, актеров, сведение звука и студию звукозаписи останутся в прошлом.

Анонимный источник рассказал изданию Rest of World, что компания дубляжа заставила его подписать соглашение о неразглашении, хотя он просто записывал звуки для датасетов, а не какой-то специфический контент. Он также добавил, что поэтому актеры не смогут публично претендовать на доходы компаний с искусственных голосов.


Читайте по теме:

Самые интересные нейросети: топ-14 сервисов для раскрашивания изображений, генерации текста и не только

Актеров все чаще омолаживают с помощью ИИ. Как это меняет киноиндустрию?

Почему в рекламе все чаще появляются дипфейки знаменитостей


В дополнение к записям голосов используются и другие способы сбора данных. Метод «подбора голоса» обучает искусственный интеллект на оригинальных голосах из фильма. Так программа сможет выучить звуковые и тональные характеристики высшего эшелона голливудских актеров, чтобы перевести и адаптировать их на другой язык. Краковски из Deepdub рассказывает, что для этого требуется всего 2-3 минуты голосовых данных актера.

Deepdub была первой компанией, которая продублировала целый художественный фильм на испанский язык при помощи интеллекта. Это был американский триллер «Каждый раз, как я умираю», выпущенный в 2019 году.

Для него ИИ создал дорожку на «нейтральном испанском» (español neutro) — устном диалекте, который существует только в дублированных фильмах и телепередачах, предназначенных для разнообразного рынка в 550 млн человек, которые преимушественно проживают в Мексике, Колумбии, Аргентине, США и Испании (хотя у европейского испанского есть свой «нейтральный» вариант).

Краковски считает, что со временем дубляж при помощи ИИ может устранить необходимость в «нейтральном испанском».

«В будущем мы сможем разнообразить его более разнообразными диалектами и акцентами, что позволит нам создавать еще более географически специфичный контент» — говорит Краковски из Deepdub.

В настоящее время аудитория также испытывает проблемы с дубляжом, который создан ИИ для контента, менее ориентированного на знаменитостей. Так, когда в роликах на YouTube, озвученных Алехандро Грауэ, его голос заменили искусственным, это вызвало серьезную критику зрителей.

«Не портите это таким ужасным дубляжом!» — написал один из комментаторов.

Но разработчики уверены, что аудитория в конечном итоге привыкнет к этому. Более того, Фил Ньюсом, отвечающий за продакшен в MiLa Media, студии, работавшей над фильмом «Каждый раз, как я умираю», считает, что дистрибьюторам безразлично, каким будет дубляж.

Однако это еще начало, и работа актеров и ИИ все еще странным образом пересекается. Например, в прошлом году на Disney+ состоялась примера сериала «Оби-Ван Кеноби». В английской версии для персонажа Дарта Вейдера использовался голос, созданный ИИ от украинской компании Respeecher. Алгоритм воспроизводил характерный хриплый голос Джеймса Эрла Джонса.

Однако в версии для Латинской Америки его озвучил аргентино-мексиканский актер Себастьян Япур, который играет роль с 2015 года — фактически человек продублировал ИИ-актера.

Япур считает, что продюсеры «клонировали» голос Джонса из-за ностальгии: «Трудно заменить устоявшихся персонажей». Однако, по его словам, хотя в США технологию ИИ иногда используют в художественных целях, что в Латинской Америке «просто пытаются сделать что-то, что уже очень дешево, еще дешевле».

Источник.

Фото на обложке: Unsplash

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 13 сентября ва ВЭФ-2023 стартует «Арктическая стартап-экспедиция: Дальний Восток и Арктика России»
  2. 2 Синергия, господдержка и лояльность: как удержать креативные кадры в регионах
  3. 3 Реклама будущего: 5 трендов, которые могут полностью изменить рынок
  4. 4 Как начать свое дело в креативных индустриях — инсайты творческих предпринимателей
  5. 5 Студент НИТУ «МИСиС» создал нейросеть, которая пишет картины
FutureFood
Кто производит «альтернативную» еду
Карта