Работники из разных отраслей опасаются, что их заменят программой. Это уже происходит в Латинской Америке: актеров озвучания нанимают для записи датасетов и обучения алгоритмов, которые в конечном итоге станут конкурировать с ними за роли. Разработчики ИИ для дубляжа обещают сократить расходы для продюсеров, позволив киноперсонажам говорить на любом языке, сохраняя оригинальный голос.
Многие компании предлагают ИИ-дубляж на испанском языке, хотя немногие из тех, кто приходит в Латинскую Америку, родом из испаноговорящих стран. Подход всегда немного отличается.
- Deepdub из Тель-Авива обещает синтетические голоса, которые воспроизводят целый спектр человеческих эмоций, что подходит для телешоу и фильмов.
- Лондонская Papercup делает ставку на нон-фикшн — контент вроде того, что показывают BBC, Sky News и Discovery.
- Klling из Сеула объединяет ИИ-дубляж с технологией дипфейков, синхронизируя движения губ актеров с голосами, созданными компьютером.
Несмотря на различия, все эти компании защищают свой продукт как более дешевую и быструю альтернативу актерам дубляжа.
Оз Краковски, директор по доходам в Deepdub, рассказывает, что когда требуется дублировать голливудские хиты на другие языки, у искусственных голосов есть преимущество. ИИ позволит персонажу заговорить голосом звезды — например, Моргана Фримана, — сохранив оригинальный голос, при этом используя безупречный испанский с любым местным акцентом или диалектом.
Впрочем, актеров и их поклонников в Латинской Америке это не впечатляет. Мексиканская актриса дубляжа Габриела Гусман говорит: «возможно, ИИ может имитировать голос, но ему никогда не удастся играть как настоящий актер. В нем просто нет души, и точка». Впрочем, критика касается не только абстрактных понятий, но и вполне практических, выходящих за рамки работы на экране.
«Как привести ИИ на Comic-Con, чтобы поговорить с аудиторией? Это просто невозможно... У актеров дубляжа есть поклонники» — рассуждает Гусман.
Несмотря на то, что программы ИИ для дубляжа кажутся безликими, в конечном итоге они зависят от работы людей, потому что софт обучается на реальных выступлениях: для обучения необходимы актеры. Вместе с технической командой они обучают ИИ навыкам для создания искусственного голоса из тысяч записанных фрагментов, зачастую случайных и бессмысленных.
«Они по несколько часов заставляют актеров записывать множество слов и отдельных звуков в разных стилях и тональностях», — рассказывает актер дубляжа. Он попросил сохранить его анонимность, поскольку боится попасть в черный список студий ИИ-дубляжа.
Аргентинский актер дубляжа Алехандро Грауэ рассказывает, что приглашения на запись для ИИ-компаний начали появляться в Буэнос-Айресе несколько месяцев назад. «Когда мне предложили работу, то сказали, что нужно будет записать 10 тысяч слов и мне заплатят 10 тысяч песо (около $52 по официальному курсу)» — вспоминает он.
Два источника в отрасли, которые попросили об анонимности, боясь потерять работу, подтвердили, что Буэнос-Айрес — одно из мест, где собирают данные компании из Европы и Азии, разрабатывающие ИИ для дубляжа. Вероятно, это связано с благоприятным курсом валюты, из-за чего обучать ИИ в стране относительно дешево.
Впрочем, сами компании утверждают, что гораздо важнее долгосрочная экономия, которую они предлагают. Дело не в том, что записывать в Аргентине дешевле, но и сами записи с участием людей являются краткосрочными расходами.
Они обещают, что после того, как записи используют для создания моделей в «банке голосов» или обучения сгенерированных компьютером голосов, имитирующих реальные, продюсерам кино и телевидения придется платить только за защищенные авторским правом голоса. Расходы на переводчиков, актеров, сведение звука и студию звукозаписи останутся в прошлом.
Анонимный источник рассказал изданию Rest of World, что компания дубляжа заставила его подписать соглашение о неразглашении, хотя он просто записывал звуки для датасетов, а не какой-то специфический контент. Он также добавил, что поэтому актеры не смогут публично претендовать на доходы компаний с искусственных голосов.
Читайте по теме:
Актеров все чаще омолаживают с помощью ИИ. Как это меняет киноиндустрию?
Почему в рекламе все чаще появляются дипфейки знаменитостей
В дополнение к записям голосов используются и другие способы сбора данных. Метод «подбора голоса» обучает искусственный интеллект на оригинальных голосах из фильма. Так программа сможет выучить звуковые и тональные характеристики высшего эшелона голливудских актеров, чтобы перевести и адаптировать их на другой язык. Краковски из Deepdub рассказывает, что для этого требуется всего 2-3 минуты голосовых данных актера.
Deepdub была первой компанией, которая продублировала целый художественный фильм на испанский язык при помощи интеллекта. Это был американский триллер «Каждый раз, как я умираю», выпущенный в 2019 году.
Для него ИИ создал дорожку на «нейтральном испанском» (español neutro) — устном диалекте, который существует только в дублированных фильмах и телепередачах, предназначенных для разнообразного рынка в 550 млн человек, которые преимушественно проживают в Мексике, Колумбии, Аргентине, США и Испании (хотя у европейского испанского есть свой «нейтральный» вариант).
Краковски считает, что со временем дубляж при помощи ИИ может устранить необходимость в «нейтральном испанском».
«В будущем мы сможем разнообразить его более разнообразными диалектами и акцентами, что позволит нам создавать еще более географически специфичный контент» — говорит Краковски из Deepdub.
В настоящее время аудитория также испытывает проблемы с дубляжом, который создан ИИ для контента, менее ориентированного на знаменитостей. Так, когда в роликах на YouTube, озвученных Алехандро Грауэ, его голос заменили искусственным, это вызвало серьезную критику зрителей.
«Не портите это таким ужасным дубляжом!» — написал один из комментаторов.
Но разработчики уверены, что аудитория в конечном итоге привыкнет к этому. Более того, Фил Ньюсом, отвечающий за продакшен в MiLa Media, студии, работавшей над фильмом «Каждый раз, как я умираю», считает, что дистрибьюторам безразлично, каким будет дубляж.
Однако это еще начало, и работа актеров и ИИ все еще странным образом пересекается. Например, в прошлом году на Disney+ состоялась примера сериала «Оби-Ван Кеноби». В английской версии для персонажа Дарта Вейдера использовался голос, созданный ИИ от украинской компании Respeecher. Алгоритм воспроизводил характерный хриплый голос Джеймса Эрла Джонса.
Однако в версии для Латинской Америки его озвучил аргентино-мексиканский актер Себастьян Япур, который играет роль с 2015 года — фактически человек продублировал ИИ-актера.
Япур считает, что продюсеры «клонировали» голос Джонса из-за ностальгии: «Трудно заменить устоявшихся персонажей». Однако, по его словам, хотя в США технологию ИИ иногда используют в художественных целях, что в Латинской Америке «просто пытаются сделать что-то, что уже очень дешево, еще дешевле».
Фото на обложке: Unsplash
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025