Top.Mail.Ru
Истории

Клиенты склонны обманывать чат-ботов. Как этого избежать?

Истории
Елена Лиханова
Елена Лиханова

Старший редактор RB.RU

Елена Лиханова

Автоматизированные системы обслуживания клиентов становятся все более распространенными в разных отраслях. Такие инструменты, как онлайн-формы, чат-боты и прочие цифровые интерфейсы, имеют преимущества и для компаний, и для клиентов.

Новое исследование указывает, что у удобства есть и обратная сторона: люди склонны обманывать цифровые системы в более чем 2 раза чаще, чем живых собеседников. Рассказываем о выводах и рекомендациях, которые помогут добиться более честных ответов.

Клиенты склонны обманывать чат-ботов. Как этого избежать?

Представьте, что вы только что сделали онлайн-заказ на Amazon. Что помешает заявить, что посылка так и не прибыла, и потребовать возврата денег — даже если заказ исполнен в точности? Или, скажем, вы только что купили новый телефон и сразу же уронили его, разбив экран. Вы отправляете запрос на замену, и автоматизированная система уточняет, прибыл ли продукт сломанным или повреждение произошло по вашей вине. Что вы скажете?

Нечестность — явление далеко не новое. Но по мере того, как чат-боты, онлайн-формы и другие цифровые интерфейсы становятся все более распространенными в клиентском сервисе, сейчас как никогда просто исказить правду, чтобы сэкономить деньги. Как компании могут побудить клиентов быть честными, в то же время пользуясь преимуществами автоматизированных инструментов?


Читайте по теме: Россиян стали раздражать государственные чат-боты вместо живых специалистов


Чтобы исследовать этот вопрос, были проведены два простых эксперимента, которые позволили ненавязчиво измерить честность поведения.

Сначала исследователь попросил участников подбросить монету десять раз и сказал им, что в зависимости от результатов они получат денежный приз. Некоторые сообщали о результатах через видеозвонок или чат, а остальные — с помощью онлайн-формы или голосового бота. Они подбрасывали монеты без посторонних, и проверить честность отдельного участника было невозможно.

Однако ученым удалось оценить склонность к мошенничеству группы участников (поскольку в целом только 50% подбрасываний монет должны быть успешными).

Что они обнаружили?

  • В среднем, когда участники отчитывались перед человеком, они говорили, что желаемый результат получили в 54,5% случаев, что соответствует предполагаемому уровню мошенничества в 9%.
  • Напротив, когда они сообщали результат машине, они обманывали в 22% случаев.

Иными словами, небольшого мошенничества следует ожидать в любом случае, но участники эксперимента, которые общались с цифровой системой, обманывали более чем в 2 раза чаще, чем при разговоре с человеком.

Кроме этого, общаясь с машиной, люди более чем в 3 раза чаще шли на откровенный обман, говоря, что 9 или 10 подбрасываний закончились желаемым результатом.

Последующий опрос помог определить, что основным психологическим механизмом, стимулирующим этот эффект, был уровень беспокойства участников о своей личной репутации. Те, кто сообщал о своих результатах машине, чувствовали себя намного менее близкими к исследователю и, как следствие, были намного меньше обеспокоены своей личной репутацией, чем те, кто общался с человеком.

Таким образом, исследователи выдвинули гипотезу: возможно, если сделать цифровую систему более человечной (например, использовать голосовой, а не текстовый интерфейс), пользователи будут больше беспокоиться о своей репутации и с меньшей вероятностью будут лгать. Однако обнаружилось, что участники эксперимента по-прежнему жульничали так же часто.

Вероятно, если люди знают, что взаимодействуют с машиной, наделение ее человеческими чертами вряд ли будет иметь большое значение.

девушка переписывается по смартфону, чат-боты

Фото в тексте: Unsplash

Безусловно, вполне возможно, что развитие подобных человеку систем ИИ сделает эту стратегию эффективнее в будущем. Но на данный момент ясно, что цифровые инструменты делают мошенничество намного более распространенным, и очевидного быстрого решения просто нет.

Решение проблемы было обнаружено в ходе второго эксперимента. Хотя нечестность невозможно устранить, можно предсказать, кто с большей вероятностью будет лгать роботу, а затем подтолкнуть именно эту группу пользователей использовать человеческий канал связи.

Сначала исследователи оценили общую склонность участников к мошенничеству, попросив их подбросить монетку десять раз и сообщить о результатах через онлайн-форму, а затем классифицировали их как «вероятно обманывающих» и «вероятно честных». В следующей части эксперимента испытуемым предложили выбрать, как сообщать о результатах подбрасывания монеты: напрямую человеку или через онлайн-форму.

В целом, примерно половина участников предпочла человека, а остальные — онлайн-форму, причем «вероятно обманывающие» значительно чаще выбирали онлайн-форму, в то время как «вероятно честные» — общение с другим человеком.

Это говорит о том, что люди, которые обманывают по собственной инициативе, стараются избегать ситуаций, в которых им приходится врать человеку, а не машине. Предположительно это происходит из-за понимания (порой неосознанного), что обманывать человека было бы неприятнее.

Таким образом, если нечестные люди склонны самостоятельно выбирать цифровые каналы связи, это позволяет лучше выявлять обман и минимизировать его. Один из способов лучше определять таких клиентов — собирать данные о предпочитаемом канале связи. 

Конечно, клиенты могут попытаться обмануть систему, решив поговорить с реальным агентом, но это действительно беспроигрышный вариант, поскольку, согласно исследованию, при общении с человеком они с гораздо большей вероятностью будут вести себя честно.

В конечном счете, нет лекарства от цифровой нечестности. В конце концов, кажется, что обмануть робота не так плохо, как лгать в лицо настоящему человеку.

Люди запрограммированы на защиту своей репутации, а машины в принципе не представляют для нее такой угрозы, как люди. Понимая, почему клиенты более или менее склонны ко лжи, организации могут создавать системы, выявляющие вероятные случаи мошенничества и, в идеале, подталкивающие к искренности.

Источник.

Фото на обложке: fizkes / Shutterstock

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Как устроена бургерная с искусственным интеллектом
  2. 2 Boston Dynamics представила полностью электрического человекоподобного робота Atlas
  3. 3 Как и зачем интегрировать чат-боты в систему 1С
  4. 4 Телеграм-боты как инструмент для увеличения вовлеченности аудитории
  5. 5 Люди и роботы: как «подружить» сотрудников с технологиями
FutureFood
Кто производит «альтернативную» еду
Карта