Истории

Когда технологии знают вас лучше, чем вы сами

Истории
Анна Самойдюк
Анна Самойдюк

Редактор

Анна Самойдюк

Чтобы понять, что на самом деле имеют в виду люди, мы читаем подтекст. Сегодня же почти все общаются в основном в социальных сетях; текстовые сообщения содержат в себе куда меньше подтекста, и мы понимаем друг друга хуже, чем когда-либо прежде.

Рана эль Калиобай, соосновательница компании Affectiva, обучающей машины анализу эмоций, хочет усовершенствовать инструменты, которые мы используем для общения, и вернуть коммуникацию на прежний уровень. Издание Quartz объяснило, как ей это удастся сделать.

Когда технологии знают вас лучше, чем вы сами

Сентиментальные технологии

Калиобай вместе с коллегами разрабатывает базу данных, состоящую из 7,7 млн изображений разных лиц, чтобы получить общую картину человеческой коммуникации. Идея заключается в том, что если машины научатся читать подтекст, они будут лучше удовлетворять наши потребности в некоторых ситуациях.

Возьмем, к примеру, онлайн-обучение. Представьте, что вы не понимаете какую-то тему во время курса. В теории камера будет передавать компьютеру ваши эмоции (в данном случае блуждающий взгляд и разочарование), а система будет реагировать на оповещение должным образом. Возможно, вам предложат больше примеров или задачи попроще.

У технологии Калиобай есть несколько интересных применений. Автоматизированный анализ эмоций может помочь людям с аутизмом, которые не могут интерпретировать подтекст, лучше понимать общение. Устройство, внешне напоминающее Google Glass, будет оповещать пользователя, если тот проигнорирует важный невербальный знак, и таким образом он не будет полагаться на один лишь язык для оценки ситуации.

Калиобай также использовала свой инструмент для определения заинтересованности слушателей во время вебинаров. Обычно онлайн-спикер не может сказать, внимательно ли его слушают. Однако при помощи технологий он может определить активность аудитории и в результате более эффективно донести свою мысль.

Подписывайтесь на канал Rusbase в «Яндекс.Дзен», чтобы ничего не пропустить

Фото: Unsplash

Рекламодатели также использовали инструмент для тестирования реакции людей на потенциальную кампанию. Зрители смотрят рекламу, в то время как технологии Affectiva оценивают их реакцию. Такой анализ помогает маркетологам понять потенциальный успех своей кампании.

Плохие потенциальные применения

Среди бесконечных возможностей эмоциональных технологий есть, конечно же, и опасные. В плохих руках инструмент, читающий и интерпретирующий эмоции, может использоваться для дискриминации, манипуляции и получения прибыли от данных о наших чувствах. Калиобай вместе с коллегами, например, поклялась, что не позволит применять инструмент в целях наблюдения и обеспечения безопасности. И они выполняют свое обещание: они отказывались от многих выгодных сделок из этих соображений; по словам Калиобай, почти каждую неделю Affectiva отклоняет предложения инвесторов, заинтересованных в разработке технологии для слежки.

Сокровищница данных

Прежде всего пользователи должны давать согласие на предоставление своих данных, если такие инструменты будут использоваться повсеместно, считает Калиобай. Компании обязаны давать людям знать, что собирают информацию о них, и объяснять, в каких целях это делается.

При помощи данных можно сделать хорошие и плохие вещи, и об этом нельзя забывать. Достаточно вспомнить многочисленные скандалы, связанные с Facebook.

Если компании начнут собирать информацию не только о том, что мы читаем или о чем говорим, но и о том, что заставляет нас улыбаться и из-за чего мы нахмуриваем брови, корпорации будут знать нас лучше, чем мы сами, и это проблематично.

Собирая лица со всего мира

Еще один потенциальный недостаток анализа может заключаться в его неточности. Инструмент должен сначала «ознакомиться» с широким рядом лиц из разных стран, чтобы предоставлять правильные результаты. Алгоритмы, основанные на ограниченных наборах данных, являются предвзятыми и распознают лишь те лица, на которых они чаще обучались. Чтобы обучить машину читать все эмоции, необходимы огромные базы данных с фотографиями людей из разных стран; кроме того, требуется понимать значение выражений лица и жестов в разных культурах.

Фото: Unsplash

Наша мимика в какой-то степени диктуется культурой. Калиобай вместе с коллегами обнаружила, что есть универсальные выражения лица – например, улыбка – но культурное влияние усиливает или приглушает определенные тенденции. Они знают, например, что латиноамериканцы более явно выражают свои эмоции, чем азиаты, и что женщины улыбаются в основном чаще, чем мужчины, объясняет Калиобай.

Но им все еще нужно больше информации. «Прогресс технологии измеряется в размере и разнообразии баз данных. Мы хотим, чтобы наши алгоритмы определяли больше эмоций», – говорит Калиобай.  

Понять сарказм труднее всего

В индустрии Калиобай есть своеобразный святой грааль: алгоритм, который идентифицирует сарказм.

Сарказм – очень утонченный тип сообщения. Если инструмент сможет распознавать такой завуалированный прием речи, это будет считаться триумфом машинного обучения. Калиобай пока не знает, сколько времени уйдет на то, чтобы достичь этой цели, но она уверена, что это случится нескоро.  

Основательница Affectiva просит нас с осторожностью относиться к новым технологиями. Она делает все с любовью и хорошими намерениями, но это не обязательно означает, что мы должны ей доверять.

«Я думаю, здесь есть чего бояться. У любой технологии есть как полезный, так и вредный потенциал», – считает она.

Источник.


Материалы по теме:

Почему стоит беспокоиться о том, что машины умеют читать ваши эмоции

20 лучших примеров использования ИИ в ритейле

Что такое поведенческая биометрия и кто применяет её на российском рынке

Внутри мира Викиданных – свободной базы знаний, которую могут использовать как люди, так и машины

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Актуальные материалы —
в Telegram-канале @Rusbase

ПРОГРАММЫ И КУРСЫ

13 ноября 2019 — 29 января 2020

Performance-маркетинг для бизнеса

16 ноября 2019

Website Optimization