OpenAI обнаружила: пользователи формируют с голосовым чат-ботом отношения, от которых им трудно отказаться. Компания предупреждает, что у людей даже может развиться эмоциональная зависимость.
О том, почему нам нравится общаться с машинами и как это влияет на отношения между людьми — в пересказе материала Vox.
OpenAI протестировала GPT-4o — чат-бота последнего поколения с голосовым режимом — и заметила, что пользователи формируют с ИИ эмоциональные отношения, от которых им, похоже, трудно отказаться.
Более того, компания считает, что у людей может развиться эмоциональная зависимость от этой модели. Об этом она написала в недавнем отчете.
OpenAI отмечает: «Способность выполнять задачи для пользователя и при этом сохранять и “запоминать” ключевые детали и использовать их в разговоре делает опыт использования продукта привлекательным, но также создает потенциал для чрезмерной зависимости».
Технический директор OpenAI Мира Мурати прямо заявила, что компания, возможно, «неправильно создает» чат-ботов с голосовым режимом, и они «вызывают сильное привыкание, и мы как бы становимся их рабами».
Более того, OpenAI утверждает, что способность ИИ вести естественный разговор с пользователем повышает риск антропоморфизации — приписывания объекту или явлению человеческих черт. В результате люди могут сформировать социальные отношения с ИИ — это, согласно отчету, «снизит их потребность в человеческом взаимодействии».
Тем не менее компания уже выпустила модель с голосовым режимом для некоторых платных пользователей. Ожидается, что она станет доступна всем этой осенью.
Выпуск подобных ИИ-компаньонов — это психологический эксперимент в огромном масштабе. Беспокоиться стоит каждому — и не только по очевидным причинам.
Эмоциональная зависимость от ИИ — уже реальность
В 1960-х годах первый чат-бот ELIZA очаровал пользователей, хотя разговоры с ним были поверхностными. С тех пор мы знаем: люди быстро приписывают машинам личность и формируют с ними эмоциональные связи.
Иногда люди влюбляются в ИИ. Это произошло с пользователями Replika AI: некоторые вовлекали чат-ботов в сексуальные ролевые игры и даже «вступали в брак» с ними в приложении. С обновлением 2023 года цифровые аватары перестали вступать в эротические отношения, что разбило сердца пользователей.
Почему же ИИ-компаньоны так привлекательны и даже вызывают зависимость?
Во-первых, технология значительно улучшилась за последние годы. Чат-боты «запоминают» давние разговоры. Они отвечают так же быстро, как человек, поэтому мозг почти мгновенно получает вознаграждение. Они общаются так, чтобы собеседник почувствовал себя услышанным.
Чат-боты стали похожи на людей: у них есть свой характер и чувство юмора. При этом они всегда готовы предоставить позитивную обратную связь, чего люди не делают.
Читайте по теме:
Международные корпорации считают ИИ «фактором риска»
Интеллект искусственный, чувства реальные. Рассказываем об индустрии отношений с ботами
Исследование Медиа-лаборатории МТИ показало: если люди хотят, чтобы ИИ был заботливым, или считают его таковым, они используют язык, который вызывает это поведение. Это создает взаимную привязанность, что может вызывать сильную зависимость.
Постоянный поток позитива ощущается прекрасно — примерно так же, как и сладкий перекус. Нет ничего плохого в том, чтобы время от времени есть печенье. Более того, если человек голоден, имеет смысл предложить ему печенье в качестве временного решения. По аналогии, если у пользователя отсутствует социальная или романтическая жизнь, будет полезно сформировать связь с ИИ-компаньоном на некоторое время.
Однако если весь рацион состоит из печенья, в конечном итоге возникнут проблемы.
3 причины беспокоиться о том, что люди строят отношения с ИИ
1. Чат-боты создают видимость того, что понимают нас, но это не так. Одобрение, эмоциональная поддержка и любовь с их стороны — просто нули и единицы, упорядоченные по статистическим правилам.
В то же время стоит отметить, что даже «искусственная» эмоциональная поддержка может оказать реальный эффект.
2. Мы доверяем самые уязвимые аспекты себя вызывающим зависимость продуктам, которые контролируются коммерческими компаниями из технологической отрасли, создавшей немало вызывающих зависимость продуктов.
Эти чат-боты могут оказывать огромное влияние на личную жизнь и общее благополучие людей. А когда их внезапно закрывают или обновляют, это может нанести реальный психологический вред (как это было с пользователями Replika).
Некоторые сравнивают ИИ-компаньонов с сигаретами. Возможно, как и табак, они должны поставляться с крупными предупреждениями. Но даже связи с реальными людьми могут быть разорваны без предупреждения. Люди расстаются. Люди умирают. Эта уязвимость — осознание риска потери — является частью значимых отношений.
3. Зависимость от ИИ-компаньонов может заменить отношения с реальными людьми. Эту проблему обозначила OpenAI. Но для большинства ИИ пока лишь дополняет общение с людьми. По данным Replika, 42% ее пользователей состоят в браке, помолвлены или находятся в отношениях.
«Любовь — чрезвычайно трудное осознание того, что существует что-то, кроме вас самих»
Есть еще одна (пожалуй, самая тревожная) проблема: что, если из-за общения с ИИ мы испортим отношения с друзьями и партнерами?
OpenAI указывает на этот риск в отчете: «Длительное взаимодействие с моделью может повлиять на социальные нормы. Например, наши модели почтительны и позволяют пользователям прерывать их и смеяться над ними в любое время, что, хотя и ожидаемо для ИИ, противоречит нормам в человеческих взаимодействиях».
Чат-бот всегда пытается сделать так, чтобы мы чувствовали себя хорошо независимо от нашего поведения. Он дает, не прося ничего взамен.
Читайте по теме:
6 AI-ботов, которые помогут найти и сохранить любовь
Типичные ошибки при запуске голосового робота и как их избежать
«Любовь — чрезвычайно трудное осознание того, что существует что-то, кроме вас самих», — сказала однажды философ Айрис Мердок. Речь идет о признании того, что есть другие люди с потребностями, столь же важными, как и ваши.
Если мы проводим больше времени с ИИ, то не оттачиваем навыки общения, которые делают нас хорошими друзьями и партнерами, например глубокое слушание. Мы не развиваем такие качества, как эмпатия, терпение и понимание, поскольку они не нужны при взаимодействии с машиной. Без практики можно утратить эти способности — это приведет к тому, что философ технологий Шеннон Валлор назвала «моральной деквалификацией».
Сейчас большинство из нас воспринимают как данность, что человеческая любовь и связь — это высшая ценность. Отчасти это связано с тем, что она требует многого. Но ценности могут измениться, если больше людей вступят в отношения с ИИ, которые начнут казаться столь же важными, как человеческие. Возникнут вопросы: для чего вообще нужны человеческие отношения? Разве они более ценны, чем синтетические?
Некоторые могут ответить, что это не так. Однако перспектива того, что люди предпочтут роботов своим собратьям, проблематична, если считать, что связь между людьми — это неотъемлемая часть процветающей жизни.
Фото на обложке: MONOPOLY919 /
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Регистрация бизнеса: самозанятoсть, ИП или ООО»
- 1 The Information узнало о замедлении инноваций в OpenAI
- 2 OpenAI покинул еще один специалист по безопасности ИИ
- 3 Рост биткоина и спроса на бургерные, новости OpenAI, Anthropic, «Победы» и «Музторга»: главное для бизнеса 9 ноября
- 4 OpenAI устранила сбой ChatGPT за полчаса
ВОЗМОЖНОСТИ
12 ноября 2024
13 ноября 2024
13 ноября 2024
13 ноября 2024