Google представила семейство моделей искусственного интеллекта PaliGemma 2, способные распознавать эмоции людей. Это вызывает опасения у экспертов, которые считают, что нейросети могут использовать во вред, пишет TechCrunch.
«PaliGemma 2 генерирует подробные, контекстуально релевантные подписи к изображениям, не ограничиваясь простой идентификацией объектов, а описывая действия, эмоции и общий сюжет сцены», — говорится в сообщении Google.
Распознавание эмоций не работает по умолчанию, для этого модель нужно настроить специальным образом. Однако эксперты, опрошенные TechCrunch, выразили обеспокоенность появлением общедоступного детектора эмоций. «Это вызывает у меня серьезное беспокойство. Я считаю проблематичным предполагать, что мы можем “считывать” эмоции людей. Это все равно что спрашивать совета у магического шара», — отметила профессор этики данных и ИИ в Оксфордском институте интернета Сандра Вахтер.
Научный сотрудник Лондонского университета королевы Марии Майк Кук заявил TechCrunch, что определение эмоций «в общем случае» невозможно, так как люди испытывают их сложным образом. «Конечно, нам кажется, что мы можем понять, что чувствуют другие, просто глядя на них. <...> Я уверен, что в некоторых случаях можно выявить определенные общие признаки, но полностью “решить” эту задачу невозможно», — отметил эксперт.
Также специалисты считают, что системы обнаружения эмоций, как правило, ненадежны и предвзяты из-за того, что разрабатываются людьми. Некоторые исследования показывают, что модели приписывают больше негативных эмоций лицам темнокожих людей.
В Google сообщили, что провели тестирование, чтобы выяснить, есть ли у PaliGemma 2 демографические предубеждения. Компания заявила, что у этого семейства ИИ-моделей «низкий уровень токсичности» по сравнению с отраслевыми бенчмарками, но не предоставила их полный список и не указала, какие типы тестов проводились.
Наибольшее опасение у экспертов вызывает вероятность того, что такие нейросети будут использовать во вред, например, для дискриминации маргинализированных групп со стороны правоохранительных органов, HR-специалистов и пограничных служб, отметила в интервью TechCrunch главный научный сотрудник по ИИ в американском исследовательском институте AI Now Institute Хайди Кхлааф.
Фото на обложке: Cheng Xin /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Как заработать на продажaх»
- 1 Сенаторы-демократы потребовали от Сэма Альтмана объяснений из-за пожертвований на инаугурацию Трампа
- 2 Глава отдела разработки ChatGPT даст показания по делу правительства США против Google
- 3 Google заявила, что ее искусственный интеллект Gemini стал лучшим на рынке — WSJ
- 4 Суд в Москве оштрафовал Google на 8 млрд рублей
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025