Системы распознавания лиц не различают азиатов. Как IT-компании с этим борются

Анна Самойдюк
Расскажите друзьям
Анна Самойдюк

Все больше компаний начинают использовать для бизнеса технологии искусственного интеллекта. Особой популярностью пользуется функция распознавания лиц. Однако есть одна проблема: она недостаточно совершенна и часто работает с погрешностями. Ее не один раз обвиняли в предвзятости по отношению к людям, принадлежащим к различным этническим группам. Издание Wired рассказало, как с этим борются стартапы и крупные технологические компании.

Разработчик программного обеспечения Генри Гэн в стартапе Gfycat прошлым летом тестировал новую систему распознавания лиц на своих коллегах. Программа точно идентифицировала большинство сотрудников, однако столкнулась с трудностями, пытаясь определить нескольких человек. «Система перепутала азиатских коллег. Это странно, потому что остальных она распознала правильно», – удивился программист.

Похожие ситуации наблюдались и в больших компаниях. Исследование, выпущенное в прошлом месяце, показало, что сервисы распознавания лиц от Microsoft и IBM на 95% правильно определяли пол женщин с более светлым оттенком кожи, но как минимум в 10 раз чаще ошибалась, анализируя фотографии с темнокожими женщинами. Компании утверждают, что усовершенствовали алгоритмы, однако отказываются объяснять, каким образом они это сделали. В январе издание Wired обнаружило, что сервис Google Photos не отвечает на запросы поиска, где присутствуют слова «горилла», «шимпанзе» или «обезьяна». Такая цензура является мерой предосторожности, чтобы избежать повторения ситуации, которая произошла в 2015 году – тогда сервис принял темнокожих людей на фото за обезьян.

Фото: Gfycat

Предвзятость систем искусственного интеллекта привлекает все больше внимания корпоративных и академических исследований. Машинное обучение помогает повысить эффективность компаний. Однако появляются все новые доказательства того, что умное ПО может укрепить или даже усилить социальные предубеждения в обществе.

Это очень серьезная проблема, поскольку все больше предприятий начинают использовать технологии ИИ. Тем не менее, ей не уделяют должного внимания. «Многие компании относятся к этому вопросу очень серьезно, однако решение пока не придумали», – говорит Мередит Уиттэкер, одна из руководителей AI Now – института, специализирующегося на этике и ИИ в Нью-Йоркском университете.

Недавно компания Gfycat объявила о создании системы на основе искусственного интеллекта, которая будет сама улучшать качество гифок. Кроме того, она сможет распознать, есть ли в анимированной картинке знаменитость или текст.

У стартапа, в котором работают 17 человек, конечно, нет гигантской лаборатории ИИ, где исследователи могли бы разрабатывать новые инструменты машинного обучения. Компания использовала программное обеспечение распознавания лиц с открытым исходным кодом от Microsoft и применяла его на миллионах фотографий из коллекций, выпущенных Иллинойсским университетом и Оксфордом. Тем не менее, система не смогла распознать ни азиатских сотрудников Gfycat, ни азиатских знаменитостей. Были также проблемы с определением людей с темным оттенком кожи.

Очень сложно заставить ПО одинаково функционировать с людьми, принадлежащими к разным этническим группам. 

Сначала Гэн попытался решить проблему, собрав больше фотографий людей, которых система не могла идентифицировать. Свободные наборы данных содержали фотографии знаменитостей и других общественных деятелей из интернета; однако люди со светлым оттенком кожи встречались значительно чаще. Гэн добавил снимки с людьми азиатской внешности, но это не сильно помогло: алгоритм все еще их путал. Он не мог распознать, например, звезд корейского поп'а, а именно они являлись героями большинства гифок сайта.  

Все же систему удалось починить и выпустить на рынок: компания разработала своего рода азиатский детектор. Когда появляется новое фото человека с азиатской внешностью, система переключается на интенсивный режим и более тщательно подбирает соответствие. «Надеюсь, это не прозвучит обидно, тем не менее, теперь система не будет определять каждого азиата как Джеки Чана». Теперь алгоритм на 98% точно идентифицирует людей со светлым оттенком кожи и на 93% — людей азиатской внешности.

Конечно, странно обучать программу четко выделять расовые различия между людьми, если мы хотим бороться с предвзятостью. Профессор в Университете штата Массачусетс Эрик Лернд-Миллер считает, что в этом нет ничего странного. Поскольку технология распознавания лиц используется все чаще, очень важно, чтобы она работала правильно по отношению ко всем этническим группам.  

Эту идею поддерживают академические и корпоративные исследования. Google опубликовала в декабре отчет, в котором сообщается о новом уровне точности при определении улыбок. Они разработали систему, которая ищет признаки того, какого пола является человек и к какой расовой группе он относится.

Конкуренция заставляет большие и маленькие компании эффективнее и быстрее бороться с проблемами предвзятости. Канадский стартап Modiface предлагает технологию, которая показывает, как на самом деле будет выглядеть макияж, виртуально примеряя косметику на любого человека. Она представлена в приложениях от известных брендов вроде Sephora. Совсем недавно компания L’Oreal приобрела Modiface. Приложение работает одинаково, независимо от типа лица человека.

Изначально компания использовала несколько открытых датасетов, но в итоге они оказались ненадежными, – поделился генеральный директор Пархам Аараби. Поэтому Modiface пришлось покупать дополнительные картинки и тестировать технологию на сотрудниках, друзьях и членах семьи. Сейчас компания обладает примерно 250000 изображений, из них как минимум по 5000 приходится на каждую значимую этническую группу. Компания также провела глубокий анализ, чтобы определить, как отличаются черты лица в зависимости от расы.

В будущем предприниматели должны пользоваться огромным количеством источников, чтобы обойти проблемы предвзятости систем искусственного интеллекта. Кроме того, они обязаны регулярно отчитываться о функционировании своих ПО. Некоторые исследователи даже предложили ввести строгие стандарты, которые будут требовать полной прозрачности от компаний.

Лернд-Миллер считает, что организации, применяющие технологии распознавания лиц вроде Facebook и ФБР должны раскрывать статистические данные о точности своих систем для разных групп населения. «Нам нужна прозрачность», – сказал он.

На прошлой неделе исследователи из Нью-Йоркского университета, Microsoft и Georgia Tech предложили выпускать сервисы распознавания лиц со схожей пояснительной информацией.  

Тимнит Гебру из Microsoft уверена: это уменьшит риск того, что люди случайно применят свободные и доступные инструменты ИИ в противоречие этике. «С ними не предоставляются рекомендации к использованию. Искусственный интеллект дает много возможностей, но мы должны серьезно относиться к безопасности и стандартизации».

Источник.


Материалы по теме:

Оплата заказа с помощью улыбки: как технологии меняют ритейл уже сейчас

Полиция Пекина протестировала очки с распознаванием лиц

Распознавание лиц от NtechLab займется безопасностью в «умных городах» Татарстана

Разработчик FindFace и МВД представили систему распознавания лиц для массовых скоплений людей


Актуальные материалы — в Telegram-канале @Rusbase

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter


Комментарии

Зарегистрируйтесь, чтобы оставлять комментарии и получить доступ к Pipeline — социальной сети, соединяющей стартапы и инвесторов.
OpenTalks.AI
14 февраля 2019
Ещё события
Реклама помогает Rusbase


Разместить рекламу



Telegram канал @rusbase



Реклама помогает Rusbase


Разместить рекламу