Снявшись в 80 фильмах и потратив 30 лет на шоу-бизнес, актёр Том Хэнкс наверняка хотел бы сделать передышку. Если он окончательно не уйдёт с экранов кинотеатров, то в скором времени сможет взять отпуск и при этом сниматься в кино. О том, как ему в этом поможет наука, рассказывает Mashable.
Учёные в университете Вашингтона отобрали в Сети около 200 фотографий актёра с разными выражениями лица и использовали их для создания цифровой модели Тома Хэнкса, которая может «говорить то, чего реальный актёр никогда не произносил».
Новая технология, которую учёные представят в этом месяце в исследовании под названием «Что заставляет Тома Хэнкса выглядеть как Том Хэнкс» на Международной конференции машинного распознавания образов в Чили, не ограничивается только личностью актера. Исследователи сообщили, что возможность использовать «неструктурированные коллекции фотографий» поможет применить эту технологию к широкому кругу людей. Тем не менее у знаменитостей вроде Хэнкса больше шансов на успех, поскольку в открытом доступе в интернете можно найти множество их фотографий.
«Ответ на то, почему Том Хэнкс выглядит именно так, даёт компьютерная система, имитирующая действия Тома Хэнкса», — объясняет в пресс-релизе выпускник факультета информатики Вашингтонского университета и автор исследования Супасорн Суваджанакорн.
С помощью Google Image учёные нашли фотографии актера в разном возрасте с всевозможными выражениями лица. Эти фото использовали для создания цифровой куклы, которая представляет собой 3D-модель лица Хэнкса с характерной для него мимикой. Затем наложили на неё текстурные слои, чтобы эмоции изменялись, словно в жизни. Например, когда он говорит, улыбается или хмурится.
Получаются безумные вещи, когда для озвучки куклы Хэнкса учёные используют случайное видео с YouTube. В результате актёр произносит речь, которую никогда не произносил, но в характерном для него стиле.
Суваджанакорн объясняет, что на создание одного кадра видео уходит 1-2 минуты, но зато им не приходится вручную управлять цифровой куклой. «Всё происходит автоматически. Куклой управляет заданный видеоряд (последовательность фото)», — пишет ученый.
Читайте по теме: Как построить бизнес на 3D-ядре
В целом, это значительный шаг вперёд по сравнению с традиционными способами анимации лица с обязательным участием живого человека. Для этого проекта сам Хэнкс не понадобился. Теоретически любого человека с достаточным количеством визуальной информации в Сети можно анимировать и заставить произносить любые слова.
Учёные сообщили Mashable, что идея анализа видео возникла из работы по «Полной реконструкции лица», которую команда проделала в прошлом году. Когда программа определяет типичные выражения лица, тогда из них создаётся модель Хэнкса.
Как учёные используют изображения Тома Хэнкса и Джорджа Буша, чтобы кукла Тома Хэнкса произносила слова бывшего президента США.
Учёные отмечают, что они могут наложить речь одного актёра на другого. Однако поскольку из-за того, что они полагаются на мимику последнего, видео выглядит так, как будто говорит кукла, а не человек. Например, когда Хэнкс озвучивает речь Джона Белуши в «Зверинце».
Эти модели можно использовать в более прозаичных целях. Например, для общения с дальними родственниками в виртуальной реальности. Пока вы болтаете с ними по телефону, то вы видите их анимированную говорящую версию в шлеме Samsung Gear VR (Samsung, наряду с Intel и Google помог в финансировании этого исследования).
Mashable спросил Суваджанакорна, можно ли использовать эту технологию для оживления мёртвых родственников. «В теории можно. Но пока всё упирается в достаточное количество материала (фотографий с разными выражениями лица)», — ответил он.Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
-
Пройти курс «Как заработать на продажaх»
- 1 Россияне назвали самые бесполезные новогодние подарки
- 2 Что подарить любителю технологий: обзор необычных подарков
- 3 12 причин влюбленности: как психология любви и привязанности влияет на нас
- 4 YouTube-блогеры попали в Книгу рекордов Гиннесса за создание двухметрового iPhone
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025