Top.Mail.Ru
Новости

Google научила модель ИИ распознавать эмоции людей

Новости
Богдан Музыченко
Богдан Музыченко

Выпускающий редактор новостного блока

Богдан Музыченко

Google представила семейство моделей искусственного интеллекта PaliGemma 2, способные распознавать эмоции людей. Это вызывает опасения у экспертов, которые считают, что нейросети могут использовать во вред, пишет TechCrunch.

Google научила модель ИИ распознавать эмоции людей
  1. Новости

«PaliGemma 2 генерирует подробные, контекстуально релевантные подписи к изображениям, не ограничиваясь простой идентификацией объектов, а описывая действия, эмоции и общий сюжет сцены», — говорится в сообщении Google.

Распознавание эмоций не работает по умолчанию, для этого модель нужно настроить специальным образом. Однако эксперты, опрошенные TechCrunch, выразили обеспокоенность появлением общедоступного детектора эмоций. «Это вызывает у меня серьезное беспокойство. Я считаю проблематичным предполагать, что мы можем “считывать” эмоции людей. Это все равно что спрашивать совета у магического шара», — отметила профессор этики данных и ИИ в Оксфордском институте интернета Сандра Вахтер.

Научный сотрудник Лондонского университета королевы Марии Майк Кук заявил TechCrunch, что определение эмоций «в общем случае» невозможно, так как люди испытывают их сложным образом. «Конечно, нам кажется, что мы можем понять, что чувствуют другие, просто глядя на них. <...> Я уверен, что в некоторых случаях можно выявить определенные общие признаки, но полностью “решить” эту задачу невозможно», — отметил эксперт. 

Также специалисты считают, что системы обнаружения эмоций, как правило, ненадежны и предвзяты из-за того, что разрабатываются людьми. Некоторые исследования показывают, что модели приписывают больше негативных эмоций лицам темнокожих людей.

В Google сообщили, что провели тестирование, чтобы выяснить, есть ли у PaliGemma 2 демографические предубеждения. Компания заявила, что у этого семейства ИИ-моделей «низкий уровень токсичности» по сравнению с отраслевыми бенчмарками, но не предоставила их полный список и не указала, какие типы тестов проводились.

Наибольшее опасение у экспертов вызывает вероятность того, что такие нейросети будут использовать во вред, например, для дискриминации маргинализированных групп со стороны правоохранительных органов, HR-специалистов и пограничных служб, отметила в интервью TechCrunch главный научный сотрудник по ИИ в американском исследовательском институте AI Now Institute Хайди Кхлааф.

RB.RU рекомендует лучших поставщиков цифровых решений для вашего бизнеса — по ссылке

Фото на обложке: Cheng Xin / Getty Images

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

7 писем для старта
Начни бизнес с RB.RU
Подписаться