Клиенты склонны обманывать чат-ботов. Как этого избежать?
Общаясь с машиной, мы меньше переживаем за свою репутацию
Автоматизированные системы обслуживания клиентов становятся все более распространенными в разных отраслях. Такие инструменты, как онлайн-формы, чат-боты и прочие цифровые интерфейсы, имеют преимущества и для компаний, и для клиентов.
Новое исследование указывает, что у удобства есть и обратная сторона: люди склонны обманывать цифровые системы в более чем 2 раза чаще, чем живых собеседников. Рассказываем о выводах и рекомендациях, которые помогут добиться более честных ответов.
Представьте, что вы только что сделали онлайн-заказ на Amazon. Что помешает заявить, что посылка так и не прибыла, и потребовать возврата денег — даже если заказ исполнен в точности? Или, скажем, вы только что купили новый телефон и сразу же уронили его, разбив экран. Вы отправляете запрос на замену, и автоматизированная система уточняет, прибыл ли продукт сломанным или повреждение произошло по вашей вине. Что вы скажете?
Нечестность — явление далеко не новое. Но по мере того, как чат-боты, онлайн-формы и другие цифровые интерфейсы становятся все более распространенными в клиентском сервисе, сейчас как никогда просто исказить правду, чтобы сэкономить деньги. Как компании могут побудить клиентов быть честными, в то же время пользуясь преимуществами автоматизированных инструментов?
Читайте по теме: Россиян стали раздражать государственные чат-боты вместо живых специалистов
Чтобы исследовать этот вопрос, были проведены два простых эксперимента, которые позволили ненавязчиво измерить честность поведения.
Сначала исследователь попросил участников подбросить монету десять раз и сказал им, что в зависимости от результатов они получат денежный приз. Некоторые сообщали о результатах через видеозвонок или чат, а остальные — с помощью онлайн-формы или голосового бота. Они подбрасывали монеты без посторонних, и проверить честность отдельного участника было невозможно.
Однако ученым удалось оценить склонность к мошенничеству группы участников (поскольку в целом только 50% подбрасываний монет должны быть успешными).
Что они обнаружили?
- В среднем, когда участники отчитывались перед человеком, они говорили, что желаемый результат получили в 54,5% случаев, что соответствует предполагаемому уровню мошенничества в 9%.
- Напротив, когда они сообщали результат машине, они обманывали в 22% случаев.
Иными словами, небольшого мошенничества следует ожидать в любом случае, но участники эксперимента, которые общались с цифровой системой, обманывали более чем в 2 раза чаще, чем при разговоре с человеком.
Кроме этого, общаясь с машиной, люди более чем в 3 раза чаще шли на откровенный обман, говоря, что 9 или 10 подбрасываний закончились желаемым результатом.
Последующий опрос помог определить, что основным психологическим механизмом, стимулирующим этот эффект, был уровень беспокойства участников о своей личной репутации. Те, кто сообщал о своих результатах машине, чувствовали себя намного менее близкими к исследователю и, как следствие, были намного меньше обеспокоены своей личной репутацией, чем те, кто общался с человеком.
Таким образом, исследователи выдвинули гипотезу: возможно, если сделать цифровую систему более человечной (например, использовать голосовой, а не текстовый интерфейс), пользователи будут больше беспокоиться о своей репутации и с меньшей вероятностью будут лгать. Однако обнаружилось, что участники эксперимента по-прежнему жульничали так же часто.
Вероятно, если люди знают, что взаимодействуют с машиной, наделение ее человеческими чертами вряд ли будет иметь большое значение.
Фото в тексте: Unsplash
Безусловно, вполне возможно, что развитие подобных человеку систем ИИ сделает эту стратегию эффективнее в будущем. Но на данный момент ясно, что цифровые инструменты делают мошенничество намного более распространенным, и очевидного быстрого решения просто нет.
Решение проблемы было обнаружено в ходе второго эксперимента. Хотя нечестность невозможно устранить, можно предсказать, кто с большей вероятностью будет лгать роботу, а затем подтолкнуть именно эту группу пользователей использовать человеческий канал связи.
Сначала исследователи оценили общую склонность участников к мошенничеству, попросив их подбросить монетку десять раз и сообщить о результатах через онлайн-форму, а затем классифицировали их как «вероятно обманывающих» и «вероятно честных». В следующей части эксперимента испытуемым предложили выбрать, как сообщать о результатах подбрасывания монеты: напрямую человеку или через онлайн-форму.
В целом, примерно половина участников предпочла человека, а остальные — онлайн-форму, причем «вероятно обманывающие» значительно чаще выбирали онлайн-форму, в то время как «вероятно честные» — общение с другим человеком.
Это говорит о том, что люди, которые обманывают по собственной инициативе, стараются избегать ситуаций, в которых им приходится врать человеку, а не машине. Предположительно это происходит из-за понимания (порой неосознанного), что обманывать человека было бы неприятнее.
Таким образом, если нечестные люди склонны самостоятельно выбирать цифровые каналы связи, это позволяет лучше выявлять обман и минимизировать его. Один из способов лучше определять таких клиентов — собирать данные о предпочитаемом канале связи.
Конечно, клиенты могут попытаться обмануть систему, решив поговорить с реальным агентом, но это действительно беспроигрышный вариант, поскольку, согласно исследованию, при общении с человеком они с гораздо большей вероятностью будут вести себя честно.
В конечном счете, нет лекарства от цифровой нечестности. В конце концов, кажется, что обмануть робота не так плохо, как лгать в лицо настоящему человеку.
Люди запрограммированы на защиту своей репутации, а машины в принципе не представляют для нее такой угрозы, как люди. Понимая, почему клиенты более или менее склонны ко лжи, организации могут создавать системы, выявляющие вероятные случаи мошенничества и, в идеале, подталкивающие к искренности.
Фото на обложке: fizkes /
-
Технологии Александр Пьянов, «Яндекс Драйв»: «Мы готовы стать агрегатором для всего рынка каршеринга» 08 апреля 2026, 12:26
-
Личное «Успешным я стану, продав бизнес и уехав в Африку реабилитировать горилл». Интервью с ресторатором Денисом Бобковым 10 апреля 2026, 17:00
-
Банки Ирина Лебедева, Т2: «Ключевой принцип — без неприятных сюрпризов» 25 марта 2026, 09:14
-
Бизнес Отказ от завода и ставка на интеллект: как Катерина Карпова реанимировала PURE LOVE 02 марта 2026, 11:45
-
Бизнес Анна Симакова: «В кризис выживают крупные структуры» 20 февраля 2026, 10:06
-
Бизнес «Точно розовый?»: как Eburet из табурета-трансформера вырос в B2B-бренд, который заходит на рынок в 50 млрд ₽ 11 февраля 2026, 19:48
-
Бизнес Сергей Косинский: «Мне достался Франкенштейн, из которого попросили сделать нормального человека» 02 февраля 2026, 19:51
-
Искусственный интеллект «Идея „ИИ всех заменит“ похожа на мыльный пузырь». Прогноз на 2026 год от специалиста по будущему 24 декабря 2025, 11:29
-
Технологии Apple готовит самый дешёвый мини-ПК в мире Mac Neo — он будет решать базовые пользовательские задачи 15 апреля 2026, 20:00
-
Искусственный интеллект OpenAI представила GPT-5.4-Cyber — ИИ-модель для поиска уязвимостей в ПО и защиты от киберугроз 15 апреля 2026, 18:00
-
Банки В России запустили эксперимент с «белыми» банкоматами — первые терминалы уже появились в Тамбовской области 15 апреля 2026, 19:25
-
Реклама «Яндекс Директ» обучил ИИ-ассистента запускать рекламные кампании — конверсии выросли на 30% 15 апреля 2026, 18:51
-
Искусственный интеллект Инициатива требует доработки: Госдума отклонила закон об обязательной маркировке ИИ-видео в России 15 апреля 2026, 17:30
-
Бизнес Госдума освободила малые предприятия общепита от НДС до конца 2026 года — но сохранила лимит дохода в 60 млн ₽ 15 апреля 2026, 16:30
-
Россия В работе «Ростелекома» произошёл масштабный сбой из-за DDoS-атаки — пользователи жалуются на проблемы с интернетом 06 апреля 2026, 23:59
.jpg)