Исследователи искусственного интеллекта из Google сообщили, что они использовали 2 тысячи роликов с «манекен-челленджем» для создания ИИ-модели, способной предсказывать глубину окружения по видео с движением. Именно она позволяет разработчикам создавать элементы дополненной реальности в сценах, снятых ручными камерами и в 3D-видео.
Манекен-челлендж был очень популярен в 2016 году. Люди застывали в разных позах, словно время вокруг них остановилось, и это снимали на камеру. В документе «Изучение глубины движения людей с помощью наблюдения за замершими людьми» исследователи заявили, что такие ролики дают массив данных, которые помогают определить глубину поля зрения в роликах, где движутся и люди, и камера.
«В последнее время для предсказания глубины все чаще используется машинное обучение. Эти исследования первыми оптимизируют основанные на обучении методы под анализ видео с одновременным движением камеры и людей в кадре», — сообщили ученый Тали Декер и инженер Форрестер Коул из Google.
Для создания модели исследователи обучили нейронную сеть распознавать RGB-изображения и специальную маску для обозначения людей в кадре, а также оценивать изначальную глубину кадра без людей. Так им удалось создать глубокую модель окружения, которая умеет предугадывать формы людей и их позы.
Видео с YouTube уже не в первый раз используются для обучения нейросетей. Например, в прошлом году ученые из Калифорнийского университета в Беркли обучали на них ИИ-модели танцевать Gangnam style и выполнять акробатические трюки.
Материалы по теме:
Портрет Достоевского заговорил с помощью российской нейросети
Как TikTok переписывает наш мир
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Как самозанятому стать ИП»
- 1 Чем различаются слабый, сильный и супер-ИИ
- 2 Обзор технологии и применение машинного обучения с подкреплением
- 3 Apple решила зарегистрировать в России название функции камеры в iPhone
- 4 билайн Big Data & AI разработал решение для отслеживания потенциальных случаев мошенничества со стороны персонала
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025