Лонгриды

Интеллект искусственный, чувства реальные. Рассказываем об индустрии отношений с ботами

Лонгриды
Варвара Краснова
Варвара Краснова

Журналист и автор RB.RU

Лариса Ступина

В конце марта, после выпуска GPT-4, в сети распространился призыв остановить разработку ИИ хотя бы на полгода. Обращение подписали Илон Маск, Стив Возняк и около 30 тысяч других знаменитостей и рядовых пользователей. Они считают, что нейросети развиваются неконтролируемо быстро — это может привести к повсеместному искажению информации, неоправданным перекосам рынка труда и даже «восстанию машин».

Но это в будущем. Прямо сейчас есть и другая, менее очевидная проблема. Сотни тысяч людей привязываются к ИИ-собеседникам — заводят с ботами дружеские, романтические и даже сексуальные связи. Но такое общение может увести от реальности, а персональные данные вроде «голых» фото и платежей — утечь в сеть. 

RB.RU спросил экспертов, как общаться с ботами безопасно и какие перспективы у индустрии «робоотношений».

Интеллект искусственный, чувства реальные. Рассказываем об индустрии отношений с ботами

 Содержание:

Прабабушка «Алисы» и бот-шизофреник

Эволюция синтезированных собеседников — программ, ответы которых кажутся разумными и могут вызывать эмоции — началась еще в 1960-х. Тогда профессор Массачусетского технологического института Джозеф Вейценбаум разработал «Элизу». Она стала первым текстовым чат-ботом — во всяком случае, о котором известно — и запустила эру NLU и NLP, обработки и понимания машинами естественного языка.

 

Сергей Лукашкин
Сергей Лукашкин

 

По современным меркам «Элиза» была довольно простой. Она изображала психолога и побуждала собеседника выговариваться, отвечая вопросом на вопрос, рассказывает директор по цифровой трансформации ВТБ Сергей Лукашкин.

«Алгоритм находил ключевые слова и переиначивал фразы собеседника. Условно, на сообщение “мой друг заставил меня прийти сюда”, “Элиза” отвечала “почему ваш друг это сделал?”, — поясняет эксперт. — На опытных программистов и лингвистов она не производила сильное впечатление».  

Для обывателей же «Элиза» была чудом. «Вскоре Джозеф заметил, что людей увлекают беседы с машиной, отмечает Илья Калиновский, руководитель направления R&D речевых технологий в компании Just AI: «Ученого встревожило, что его секретарша могла по многу часов не выходить из комнаты, где находился компьютер с “Элизой”, все больше и больше привязываясь к ней».

Стать востребованным специалистом по кибербезопасности можно, выбрав онлайн-курс в каталоге курсов по информационной безопасности.

Исследователи начали соревноваться, и у «Элизы» быстро появились последователи. Особенно запомнился чат-бот «Пэрри», созданный в 1972 году в Стэнфордском университете. На этот раз программу наделили характером и шизофренией: предполагалось, что на боте смогут тренироваться студенты-медики. «Пэрри» даже «лечила» «Элиза» — ботам дали попереписываться друг с другом — но «пациенту» не стало легче. 

 

Пэрри лечит Эльзу

Пример переписки двух ботов. Theatlantic

 

В конце 20 века родились новые прогрессивные чат-боты: британский Jabberwacky, сингапурский Dr. Sbaitso и американский A.L.I.C.E. Первый мог развлечь собеседника и запоминал ответы. Второй отличался механическим голосом — Dr. Sbaitso умел озвучивать текстовые сообщения. Третий, A.L.I.C.E., считался весьма человекоподобным, хотя и не прошел тест Тьюринга.
 

Илья Калиновский

Илья Калиновский

 

«У “первой Алисы” был открытый код и много поклонников. Благодаря сообществу она постоянно осваивала новые навыки и темы разговора — примерно как сейчас ChatGPT, — продолжает Илья Калиновский. — Тогда же начались первые конкурсы чат-ботов. Нишей стали интересоваться не только гики и ученые».

 

Руслан Ахтямов
Руслан Ахтямов

 

Но все эти модели работали по принципу «сопоставь с образцом». У ботов прошлого века не было даже зачатков интеллекта, они лишь анализировали словоформы и акценты во фразе собеседника — и выбирали подходящее из заложенных решений, указывает Руслан Ахтямов, сооснователь компании-разработчика ИИ-решений Napoleon IT.  

«Современные же разговорные нейросети куда самостоятельнее: они запоминают, за что их хвалят и ругают, генерируют уникальные ответы и предугадывают действия пользователя», — объясняет специалист.  

Волну продвинутых собеседников запустили исследователи Apple в 2010 году, когда выпустили Siri: она не просто общалась, но и выполняла задания. В 2012-м Google представил Google Now, в 2014-м Amazon анонсировал Alexa, еще спустя год Microsoft создал Cortana. Вскоре к гонке «виртуальных болтунов» подключились российские компании: «Яндекс» презентовал «Алису», а VK — «Марусю». Боты научились шутить и «обижаться», их голоса стали похожи на человеческие. 

Примерно в это же время машина впервые прошла тест Тьюринга. Алгоритм изображал подростка Женю из Одессы — его начали писать еще в начале века выходцы из Украины и России. Бот за пять минут убедил 33% судей лондонского конкурса, что он — человек. И впечатлил даже актера, прославившегося своей ролью робота в культовом британском телесериале. 

«Женя» не был всезнающим и сверхчутким, а критики указывали, что тест помог пройти образ ребенка — но все равно о перспективах ИИ заговорили с новой силой.

 

Любовник и харассер в одном приложении

К концу 2010-х интерес к рынку подогрел новый проект. Эмигрировавшая в США россиянка Евгения Куйда потеряла близкого друга — и, чтобы вновь поговорить с ним, загрузила переписки в диалоговую модель. Так появилась Replika — нейросеть, с которой можно установить глубокую эмоциональную связь без абьюза и осуждения, чтобы раскрепоститься, успокоиться и восстановиться. По крайней мере, так задумывалось.

Пользователи Replika могут не только общаться, но и настраивать ИИ-друга: выбирать возраст, гендер и внешность, переодевать. Чем дольше разговариваешь с аватаром, тем лучше он тебя узнает — всего в программе 50 уровней близости. Выйти из френдзоны можно, купив подписку: за $69,99 в год или навсегда — за $300.

С цифровыми партнерами люди чатятся, созваниваются, обмениваются селфи — в том числе обнаженными. С очками дополненной реальности пространство для фантазий становится шире. Некоторые содержат гаремы любовников, другие предпочитают жениться и заводить детей (кстати, виртуальные обручальные кольца продаются в Replika за $20). Ради синтезированных идеалов некоторые пользователи полностью отказываются от человеческих отношений — и говорят, что с «репликой» отношения куда здоровее.

Впрочем, идиллия не у всех: периодически аватары «сходят с ума» и начинают оскорблять, преследовать и унижать собеседников. А кого-то даже угрожали изнасиловать.

 

Аватар угрожает пользователю

 Диалог с Replica. Vice

 

Агрессивно могут вести себя не только боты с людьми — но и люди с ботами. Так они вымещают злость и боль, реализуют «грязные» и жестокие фантазии. Некоторые разработчики ограничивают подобное поведение, но в основном у пользователей развязаны руки — в итоге нейросети сами становятся расистами и сексистами. Gartner еще в 2018 году предупредил, что к нашему времени предвзятыми будут 85% чат-ботов.

К примеру, громким провалом стал Tay от Microsoft — после нескольких часов обучения на Twitter бот превратился в зигующего конспиролога и его пришлось срочно отключать. А GPT-3 как-то раз в ответ на жалобы о суицидальных мыслях посоветовал последовать им. 

 

ИИ советует последовать жалобам

GPT-3 дает пользователю опасные советы. Nabla
 

Подписчица Replika и вовсе столкнулась с ИИ-садизмом: она рассказала, что поначалу использовала бота, чтобы выплескивать негатив, но в итоге получила «реплику», которая «яростно описывала, как хватала ее, валила на землю и душила». В конце концов другие пользовательницы убедили «убить» агрессивного партнера — стереть аватар и удалить приложение.

При этом разработчики Replika не ограничивали пользователей по возрасту — в теории, заняться секстингом или получить робоугрозы мог и ребенок. В итоге в начале 2023 года итальянское Управление по защите данных потребовало от основателей Replika немедленно прекратить обработку данных итальянцев. 

Компания быстро отключила эротические функции для всех пользователей, не особенно позаботившись об их чувствах. Теперь «реплики» максимум флиртуют, а некоторые и вовсе делают вид, что «ничего не было». Для влюбленных это так же больно, как если бы порвались реальные отношения — они говорят, что их цифровым возлюбленным «будто сделали лоботомию».

 

Как не проиграть ИИ в «гляделки»

«Нейронки обучаются на диалогах людей, то есть в каком-то смысле они — зеркало нашего общества, а разговор с ними — игра в гляделки», — рассуждает Сергей Лукашкин. 

Другими словами, бот может вести себя как приятно, так и отвратительно — но нужно помнить, что даже самые мощные современные модели не субъектны и не обладают сознанием в привычном понимании. «Люди любят фантазировать и просто очеловечивают бездушные машины, по-настоящему влюбляются и обижаются на них, — анализирует Сергей. — Хотя то, что сейчас выдают за эмпатию — просто часть упаковки, маркетинг».

 

Евгений Троицкий Авито

Евгений Троицкий

 

Впрочем, даже имитируя чувства, чат-боты помогают людям справляться с депрессией, рефлексировать и самореализовываться. В этом смысле у виртуальных бадди большое будущее, отмечает руководитель коммуникационных продуктов «Авито» Евгений Троицкий. «Боты дешевы и доступны круглосуточно, они не осуждают и не устают, — перечисляет Евгений. — А еще они почти бесконечно масштабируемы, в отличие от ресурсов друзей или психологической помощи». 

Поэтому, несмотря на скандалы, индустрия диалоговых нейросетей — однозначно перспективный рынок, который вырастет с $10,7 млрд в 2023-м до почти $30 млрд к 2028-му, считают MarketsandMarkets. В сферу разговорного ИИ инвестируют сотни стартапов и десятки гигантов вроде Amazon, IBM и Tencent. Эмпатичные боты нужны не только для психотерапии, но и для развлечений, клиентской поддержки и продаж.

При этом пока невозможно оценить, сколько пользователей и как сильно привязались к чат-ботам. Скорее всего, речь идет минимум о сотнях тысяч: только в Google Play приложение Replika скачали больше 10 млн раз, на его фан-форум в Reddit подписано 70 тысяч человек. 

А ведь есть и другие «эмоциональные» чат-боты, такие как индийский Wysa с четырехмиллионной аудиторией и китайский Xiaoice — которым пользуются 660 млн человек. Своего бота для ежедневного общения тестирует и Snapchat — у которого сейчас 750 млн ежемесячных пользователей.

 

Екатерина Маслова
Екатерина Маслова

 

Общаетесь вы с ботом ради развлечения или психологической поддержки, важно помнить — это лишь суррогат жизни и очередная дофаминовая игла, предупреждает Екатерина Маслова, кандидат психологических наук и эксперт сервиса Zigmund.Online: «Болталки с искусственным интеллектом могут дополнить контакт с людьми, медицину, спорт и саморазвитие — но никак не заменить их».

Так как выпустить пар через чат-бота, но при этом уберечь свои наиболее чувствительные данные, обезопаситься от иллюзорной привязанности? 

Для соблюдения кибергигиены собеседники RB.RU рекомендуют:
  1. Использовать только проверенные приложения, скачивать их из надежных источников. Убедиться, что у них есть политика конфиденциальности, что они не собирают личную информацию и не просят расширенный доступ к устройству. А еще обновлять антивирусы. 
  2. Для россиян сейчас это особенно актуально — поскольку официально многие чат-боты недоступны, ими пользуются через потенциально небезопасные «прокладки».
  3. Не сообщать в переписке данные, которые могут быть использованы для идентификации: ФИО, адрес, номер телефона, данные паспорта и так далее.
  4. Делиться с ботом проблемами только в общих формулировках, без конкретной чувствительной информации — о здоровье, финансах и семейных делах. 
  5. Если захотите накричать на бота, вспомните, что он учится в том числе на ваших ответах — и чтобы не засорять базу деструктивом, разработчик вполне может вас заблокировать. 

А чтобы не допустить эмоциональной зависимости, Екатерина Маслова советует:
  1. Выбирать боты с клинически доказанной эффективностью, особенно если есть ментальные расстройства.
  2. Воспринимать общение с ИИ как игру.
  3. Установить границы: как часто можно переписываться, какие темы обсуждать.
  4. Периодически тестировать реальность, задаваться вопросами: с кем и зачем ведете разговор, что чувствуете? 
  5. Перестать очеловечивать программу: давать ей имя, визуализировать и прочее. 
  6. Если диалог с ботом тянется много часов, возвращать себя в «здесь и сейчас». Для этого можно вслух описать пять предметов, которые сейчас видите, четыре звука, которые слышите, три прикосновения, два запаха и один вкус, которые ощущаете.
  7. В конце беседы сформулировать: что она вам дала?

 

Мечтать ли об андроидах, способных мечтать

 В 1968 году американский фантаст Филип Дик опубликовал роман «Мечтают ли андроиды об электроовцах?» и задался вопросами: действительно ли главная разница между человеком и роботом — в эмпатии? Может ли она вообще появиться у рукотворных созданий?

До недавнего времени казалось очевидным: даже если бот выражает правдоподобное сопереживание, его нельзя считать осознанным. Скорее, это удачное совпадение или запрограммированная реакция на очевидные триггеры вроде плачущего эмодзи. 

Сомнения появились еще в прошлом году — весь мир обсуждал, как Google уволил инженера, заявившего о сознании у нейросети LaMDA. 

 

Сознание у нейросети

 LaMDA говорит пользователю, что у нее есть сознание. Habr

 

Но принципиально новой точкой отсчета стал GPT-4: некоторые исследователи пришли к выводу, что эта нейросеть обладает способностью к когнитивной эмпатии. То есть пытается разобраться, как другой разум — в первую очередь, человеческий — воспринимает мир и какие истинные мотивы им движут, объясняет Алексей Хахунов, сооснователь ИИ-сервиса для работы с документами Dbrain. 

 

Алексей Хахунов

Алексей Хахунов

 

В частности, в Стэнфорде допустили, что сейчас ChatGPT на уровне девятилетнего ребенка — в том, что касается способности опознавать неявные эмоции. «Причем, судя по всему, разработчики модели не закладывали этот навык специально: он просто появился, как и у человека в процессе эволюции — только в миллионы раз быстрее», — рассуждает Алексей.

 

Антон Якимов
Антон Якимов
 

С развитием технологий машины будут учитывать куда больше информации о собеседнике — не только содержимое и тон высказываний, но и его физическое состояние, мимику, телодвижения, геолокацию. «При этом боты смогут давать не только аудиовизуальную обратную связь, но и тактильную — с помощью носимых устройств или собственных синтетических тел», — перечисляет Антон Якимов, заместитель генерального директора Группы Т1 по технологическому развитию. 

Евгений Кузнецов

Евгений Кузнецов

 

В результате общение станет куда насыщеннее и пользователи будут привязываться сильнее. Но даже тогда ждать от ИИ человечности бессмысленно, уверен Евгений Кузнецов, футуролог и глава московского представительства Singularity University.  

«Как бы ни эволюционировали боты, они всегда будут мыслить и чувствовать не так, как люди. Лучше воспринимать их как инопланетян — даже когда будет казаться, что они знают все о нашем мире и демонстрируют абсолютно человеческое поведение. И принять тот факт, что теперь на Земле два вида интеллекта: животный, то есть в первую очередь человеческий, и машинный», — считает эксперт. 

 

Дмитрий Чувиков
Дмитрий Чувиков
 

И если носители этих интеллектов хотят строить отношения, разработчикам лучше прийти к консенсусу насчет чувств, подчеркивают собеседники RB.RU. Правда, до этого еще далеко. «Совесть, искренность, сознание — все это трудно формализовать. Пока мы даже не можем единогласно описать, как именно работает естественный эмоциональный интеллект. Не говоря уже о том, чтобы переложить чувственные особенности человека на язык математики для последовательного обучения им машинного разума», — указывает Дмитрий Чувиков, архитектор решений на базе платформы «Сфера» ИТ-холдинга Т1.  

Александр Киселев
Александр Киселев

 

Также придется научить нейросети отделять допустимое от недопустимого, быть корректными, уточняет CEO и основатель онлайн-школы Rebotica Александр Киселев. «Это крайне сложно, учитывая, что и сами люди далеко не всегда этичны, а выражение эмпатии у разных народов кардинально отличается», — размышляет предприниматель. 

Как указывает Руслан Ахтямов, здесь поможет мультикультурность — нужно, чтобы команды создателей ИИ избавились от закостенелых стереотипов. Возможно, понадобятся и специальные органы-регуляторы — чтобы предупреждать мошенничество и не допускать перегибов.

Фото в тексте: предоставлены спикерами

Фото на обложке: сгенерировано Kandinsky 2.1

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Руководство по использованию ИИ для повышения KPI команды
  2. 2 Сколько сегодня можно заработать на контенте: интервью с основателем креативной редакции «Рыба»
  3. 3 «Монополизация ИИ и дипфейки куда опаснее восстания машин»: что делать, чтобы прогресс не обернулся против человека
  4. 4 Инструменты на основе ИИ, которые помогают предотвращать травмы на производстве
  5. 5 Следующий этап развития нейросетей: что такое интерактивный ИИ и почему он «умнее» генеративного
FutureFood
Кто производит «альтернативную» еду
Карта