Эмоциональный труд: что останется человеку в эпоху ИИ?

Михаил Иванов

Автор Rusbase

Расскажите друзьям
Михаил Иванов

Когда мы говорим и мечтаем о будущем, в котором роботы облегчат наши жизни, мы обычно имеем в виду, что они примут на себя скучные рутинные дела и опасную работу. Но способен ли искусственный интеллект на эмоциональную поддержку?

Эмоциональный труд – то, что останется людям?

Говорят, нужно готовиться к тому дню, когда искусственный интеллект заменит меня на работе. Это означает, что я окажусь либо бедной, либо подавленной полнотой времени и экзистенциального страха. Похоже, пришло время задуматься, какую работу могут выполнять только люди, и лихорадочно переориентироваться на эти роли, иначе мы останемся беспомощными, будто в конце игры в музыкальные стулья с роботами.

Эмоциональный труд — форма работы, которую редко учитывают в подобных машинных прогнозах. Возможно, причина в том, что его нельзя пощупать, сложно измерить и монетизировать. В значительной степени усилия, которые включают в себя проявление заботы и взятие ответственности за работу и благополучие других людей, остаются незаметными.

Благодаря инструментам цифрового общения мы, теоретически, можем предоставлять и получать больше поддержки, чем ранее. Социальные платформы позволяют нам узнавать больше друг о друге и постоянно оставаться на связи, поэтому мы иногда полагаем, что это знание поддерживает эмпатию и привязанность. Мы чувствуем, что больше знаем о структуре проблем неравенства и глобальных проблемах гуманизма. Но кто обучает нас?

Источник: Depositphotos

Соцсети требуют от нас только больше эмоционального труда

Многим людям, включая меня, современные технологии и социальные сети не сделали жизнь проще. Собственно, они создали спрос на еще больший объем эмоционального труда без дополнительной зарплаты. И, как и в случае с другими видами труда, наименее привилегированным людям достается больше всего. В Twitter именно темнокожие женщины подвергают себя риску насмешек каждый раз, когда выражают мнение, делясь мыслями о проблемах расы, интерсекциональности и политики

В век Facebook трудности друзей всегда перед глазами. Я могу проводить целые часы за разговорами поддержки с кем-то, кто даже не является мне близким другом, или защищая свои ценности в спорах с людьми, которых я никогда не встречу.

Как было в прошлом веке

В 1960-х Джозеф Вайзенбаум, работая в MIT, создал бота-терапевта для чата — ELIZA. Хотя он не хотел создавать «настоящего» ИИ-терапевта, Вайзенбаум был удивлен, когда его секретарь стал проводить много времени с ELIZA, так как программа давала «пациентам» мягкие советы или изображала эмпатию. Что было предложено в качестве подобия эмпатии (и в какой-то степени терапии) – положило начало для исследования человеческой психики.

Вайзенбаум не мог предположить, что столько людей окажутся заинтересованными в ELIZA, что между ними установится такая связь, что они проведут следующие десятилетия, делясь с ботом своими секретами. Эта неожиданная привязанность дала важную подсказку о будущем, которого мы ждем от ИИ: мы хотим обратиться к нему за эмоциональной поддержкой и мы готовы делать это, невзирая на неумелость ИИ в ведении диалога.

Мы долго думали над тем, как ИИ сможет взять на себя часть эмоциональной работы, и неважно, решает он проблемы человеческого сердца или ежедневные тягости несправедливого общества. Роботы-терапевты, дворецкие, горничные, медсестры и секс-куклы — знакомые компоненты футуристической утопии, где послушные машины делают неприятные для нас дела, пока мы живем праздной жизнью. Эти знакомые механизмы могут быть о заботе и опеке, а не только о труде и физической работе.

Источник: Darren Garrett

Мою первую игрушку-робота я увидела в 1985. Это был плюшевый мишка Тедди Ракспин, который читал детям книги, когда ему в живот вставляли кассету. В рекламных роликах Тедди проводил время с детьми после школы, пока их родители, предположительно, карабкались вверх по карьерным лестницам. В других роликах он заботливо читал сказку на ночь или пел колыбельные. В этом же году вышел четвертый фильм Rocky, в котором титулованный боксер в исполнении Сильвестра Сталлоне дарит своему другу говорящего робота-дворецкого.

Идея, что богатство может открыть путь к будущему технологий и досуга, была на пике в 80-х. Сико, робот из фильма, был создан, чтобы помочь детям с аутизмом, прежде чем он пал жертвой шарма Голливуда. В фильме робот был модернизирован: мужской голос заменен на женский, и можно догадаться, к чему это привело. 

Забота – всегда женского рода?

Возможно, для детей забота, как плюшевый медведь в комбинезоне, может не иметь пола. Когда мы рассматриваем мир взрослых, мы обычно говорим об обслуживании и заботе как о женских видах деятельности. Почему современный ИИ часто имеет женский голос или личность — вопрос многих дискуссий, исследований и размышлений.

Говорят, что мы ассоциируем обслуживание и послушность с женщинами, что преимущественно мужчины объединяют предметы роскоши с сексом, что каждый, предположительно, лучше реагирует на голос, который считает женским.

Азума Хикари, ответ Японии на Alexa — виртуальная помощница, которая говорит хозяину, что она скучает по нему, пока того нет, что она ждет не дождется, когда он придет домой. Такие вещи ассоциируется не только с сексом и послушностью, но и с близкими отношениями, заботой и толикой ежедневных взаимодействий, которые включают в себя эмоциональный труд. Мы хотим, чтобы роботы были женщинами, так как ожидаем эмоционального труда от женщин.

Нам уже не хватает эмоциональности от машин

Я считаю себя той, кто борется с патриархальностью, но даже я чувствую разочарование, когда говорю «спасибо» Alexa, а она не отвечает. Конечно, Alexa только слушает мой голос, когда я произношу ключевое слово, иначе она бы постоянно совала свой нос во все мои дела. Тем не менее взаимодействие получается безжизненным без эмоционального труда, призванного заверить меня, что я не причинила неудобство, что мои нужды естественны.

Я не хочу, чтобы она просто включила песню или рассказала мне про погоду. Я хочу, чтобы она поощряла меня за то, что я задаю ей вопросы.

Такое побуждение может оказаться неблагоприятным для здорового общества. В статье «Опасность передачи эмоционального труда роботам» (The Danger of Outsourcing Emotional Labor to Robots) Кристина Роузен ссылается на исследование, предупреждающее о том, что, позволяя искусственному интеллекту устраивать наши зоны комфорта, мы обезличиваем значение слова «забота». Другими словами, если робот может вежливо улыбаться по команде, должны ли мы прекращать благодарить человека за то же?

Пользуясь иными способами, мы рискуем обесценить наш труд. Это может привести к ухудшению эмоционального восприятия или созданию странных общественных позывов, если мы начнем говорить, кто достоин заботы (или кто может оплатить ее), а кто — нет. Если все наши виртуальные помощники, эмоционально поддерживающие нас, являются ИИ с приятными женскими голосами, то это означает закрытие дверей для некоторых женщин или их поддержку?

Источник: Depositphotos

Искусственные, но не интеллектуальные

Эту проблему также усложняет факт, что роботы, виртуальные помощники, программы, проверщики голоса, алгоритмы и тому подобное теперь выдаются за «ИИ», хотя все они являются лишь алгоритмами и программами сопоставления. Google надеется, что бот поможет определить нежелательные комментарии, а Facebook тестирует ИИ на способность выявлять людей склонных к суициду. Как говорит Иан Богост в статье о бесполезности ИИ как термина, решения далеко не идеальны и их легко неверно употребить; искусственные, но далеко не интеллектуальные.

Тем не менее в онлайн-жизни есть места, где ИИ (ПО или алгоритмы) показывает большой потенциал. Располагающийся в Портленде разработчик креативных технологий Feel Train вместе с активистом из Black Lives Matter Дерэем Маккессоном создали Twitter-бота @staywokebot, который предлагает поддержку черным активистам и снимает часть напряжения, созданного соцсетями. В перспективе он должен отвечать на вопросы, вроде «почему не все жизни важны?». Бот уже может сказать людям, как написать местным представителям, а в перспективе будет давать ответы на сложные, но частые вопросы о правосудии, что освободит активистов от необходимости заниматься подобными разговорами.

Еще есть антиутопический ужас, с которым сталкиваются модераторы контента на платформах вроде Facebook (что в деталях описано в статье 2014 года на Wired). Их работа выглядит так, как будто не требует особых сил или умений, но сражение с маршем гениталий, детской порнографией и обезглавливаниями берет свое. На данный момент алгоритмы могут делать только прямые предположения о тоне или контексте шутки, фразы или картинки, поэтому человеческая интуиция все еще важна. Проблема в том, что человеку приходится просматривать весь потенциально оскорбительный контент, взвешивая все за и против. В будущем интеллектуальная машина может выступить первой линией обороны, и модераторам останется просматривать лишь более тонкие ситуации.

ИИ как помощник в коммуникации

Миту Кхандакер-Кокорис — старший креативный инспектор Spirit AI, компании по разработке ПО, сосредоточенной на использовании ИИ-технологий для развития более человечных и правдоподобных взаимодействий – как внутри видеоигр, так и в реальном мире. Игровые сообщества — сложная область. Тут люди не только проверяют свои возможности, но и ищут укрытие, где почувствуют себя в безопасности. Я поговорила с ней об одном из инструментов компании, Ally, который был создан, чтобы сделать социальные платформы более безопасными для всех.

«Как мы справляемся с моральным унижением, которому подвергаются люди, и какие меры предпринимаем? На данный момент тяжело приходится как модераторам, так и жертвам: им остается ждать, пока ситуация разрешится сама», — говорит Кхандакер-Кокорис.

Ally предлагает выявить признаки потенциально проблемных взаимодействий; это касается не только речи или прямого контакта, но и такого поведения, как преследование или травля. Таким образом, ИИ-персонаж, параметры которого определяются разработчиками, будет спрашивать человека, в порядке ли тот и стоит ли что-то предпринять.

Такой подход позволяет пользователям определять их личные границы, а ИИ благодаря взаимодействию с ними учится выявлять, стоит ли вмешиваться и чью сторону принимать. «Определение границ — сложная задача, — говорит Кхандакер-Кокорис. — Мы нормально относимся к одним вещам в одно время, а к другим — в другое; все зависит от вашего настроения. Поэтому данный ИИ-персонаж и ваши взаимодействия с ним могут быть использованы как посредник между вами и остальной частью общества. Думаю, мы можем определить, когда у нас получается понизить эмоциональный груз — как у жертв, так и у модераторов».

Хотя Кхандакер-Кокорис сомневается насчет передачи эмоционального труда машинам, мы с ней согласились в том, что сектор технологий должен продолжать работать над улучшением понимания эмоционального труда. Разговор с ней привел меня к мысли, что отдельное и обдуманное вмешательство, сделанное ИИ, однажды может помочь лучше определить личные границы в среде, где ты чувствуешь себя более изможденным и подавленным (особенно это касается женщин и представителей расовых меньшинств).

В то же время индустрия технологий, похоже, будет продолжать использовать женские голоса для своей продукции, и скоро нас ждет новая волна более умных виртуальных помощников. Они успокоят и поощрят нас, проявляя заботу изнутри наших смартфонов, умных домов и умных машин.

Но пока для тех, кто устал от онлайн-жизни, эмоциональная отзывчивость наших электронных устройств все еще выглядит далекой мечтой.

Источник

Материалы по теме:

Ученые сообщили о позитивных эффектах воздержания от Facebook

Как женщины-руководители влияют на бизнес?

Как наука делает нас зависимыми от приложений

Люди врут роботам, потому что не хотят их расстраивать

Фото на обложке: studiostoks/Depositphotos.


Комментарии

Комментарии могут оставлять только авторизованные пользователи.
Money2020
22 октября 2017
Ещё события