Почему чат-боты выдумывают факты и как с этим бороться
Доверять, но проверять
Недавно американского адвоката привлекли к ответственности за то, что он использовал в суде цитаты из несуществующих дел — их ему предоставил ChatGPT. При этом, по словам адвоката, бот заверял, что эти дела все-таки реальны.
Это не уникальный случай — нейросети склонны к галлюцинациям, то есть выдумыванию и искажению фактов. Рассказываем, почему это происходит.
Галлюцинации ИИ возникают, когда он выдает ответ, который максимально близок к истине по имеющимся у него данным. Это происходит довольно часто.
«Галлюцинации начинаются, когда есть пробел в знаниях, и система выбирает наиболее статистически верную информацию», — рассказывает Пьер Харен, CEO и фаундер Causality Link.
Причины могут быть разными, но чаще всего это происходит, если бот обучался на относительно небольшой выборке и его не научили говорить, что он не знает ответа.
По словам Харена, ИИ «говорит то, что сильно отличается от реальности», но не знает об этом (и, соответственно, не лжет). «Возникает вопрос: в чем правда для мозга ChatGPT? Есть ли способ, с помощью которого система узнает, что отклоняется от истины?», — размышляет он.
Арвинд Джейн, CEO Glean, отмечает: важно помнить о том, что наиболее вероятный ответ не всегда является правильным.
К чему это может привести?
Во-первых, к распространению дезинформации, поскольку такие ответы кажутся реалистичными, хотя являются ложными.
Кроме того, может возникнуть эффект домино, если бот предоставляет неверную информацию по теме, которая несет за собой высокие риски. Поэтому эксперты рекомендует не использовать технологию, когда ошибки недопустимы.
«Думаю, сейчас создатели больших языковых моделей не обрадуются, если с помощью их системы кто-то будет управлять атомной электростанцией», — говорит Харен.
Читайте по теме:
Для обучения ИИ используют продукты интеллектуальной собственности. Законно ли это?
«Robotник» копирайтера: какие задачи можно доверить ChatGPT, а что лучше сделать самому
Однако бот может быть ненадежен и в других ситуациях. Так, если организация задействует предоставленную им дезинформацию в рекламной кампании, то рискует своей репутацией. Проблемы также могут возникнуть, если ИИ дает неправильный финансовый совет.
В целом, галлюцинации ИИ показывают, что технологию необходимо разрабатывать и развертывать ответственно, учитывая вопросы, связанные с этикой и безопасностью.
Какие меры можно предпринять?
«Как убедиться, что этот ответ верен? — говорит Клифф Юркевич, вице-президент по стратегии Phenom. — Этот вопрос остается за людьми. Но сейчас технологические компании вводят гарантии, чтобы прозрачно объяснить эти отношения».
Если замедлить развитие ИИ, можно принять меры, которые помогут использовать технологию безопасно. Джейн считает, что это особенно важно, поскольку когда модель выдает правильные ответы в большинстве случаев, люди начинают верить ей всегда.
«Когда модели правы, люди им доверяют, — говорит Джейн. — В этом и проблема ИИ. Как сделать так, чтобы люди не были слишком доверчивы?».
Первый шаг — сделать так, чтобы модели предоставляли источники, из которых взяли информацию.
Юркевич рассказывает: «Мой 7-летний ребенок может быстро справиться с задачей по математике, но ему нужно показать процесс решения. Откуда такой результат? Генеративный ИИ не должен стать исключением. Мы должны применять к нему те же стандарты, что и к людям».
По мнению экспертов, хороший девиз — доверять и проверять. Отсутствие второго может привести к распространению дезинформации.
«Если мы не будем проверять, то допустим нечто вроде эффекта Манделы, — говорит Юркевич. — Это будет казаться правдой, просто потому что никто не проверил, и все это говорят и повторяют».
Другой способ — попросить ИИ сообщать, когда он не знает ответа. По словам Смита, большие языковые модели стараются предоставить хоть какой-то результат, поскольку в противном случае не получают баллы.
«Нужно четко указать, что отсутствие ответа приемлемо, если информация не найдена в обучающих данных и в предоставленном контексте», — говорит Смит.
Кроме того, должна быть возможность сообщать о галлюцинациях и ошибках. Такой механизм реализован в ChatGPT: пользователь может поставить «палец вниз» рядом с ответом и написать, как его улучшить.
Обложка сгенерирована нейросетью Midjourney
-
Партнёрский материал Экс-директор Xiaomi о том, как делать сильные продукты и внедрять ИИ без иллюзий 06 апреля 2026, 16:14
-
Технологии Александр Пьянов, «Яндекс Драйв»: «Мы готовы стать агрегатором для всего рынка каршеринга» 08 апреля 2026, 12:26
-
Банки Ирина Лебедева, Т2: «Ключевой принцип — без неприятных сюрпризов» 25 марта 2026, 09:14
-
Искусственный интеллект «Идея „ИИ всех заменит“ похожа на мыльный пузырь». Прогноз на 2026 год от специалиста по будущему 24 декабря 2025, 11:29
-
Бизнес Отказ от завода и ставка на интеллект: как Катерина Карпова реанимировала PURE LOVE 02 марта 2026, 11:45
-
Бизнес Анна Симакова: «В кризис выживают крупные структуры» 20 февраля 2026, 10:06
-
Бизнес «Точно розовый?»: как Eburet из табурета-трансформера вырос в B2B-бренд, который заходит на рынок в 50 млрд ₽ 11 февраля 2026, 19:48
-
Личное Евгений Касперский: «От пароля „123“ мы не спасаем. Но есть и хорошие новости» 04 февраля 2026, 12:35
-
Искусственный интеллект В России выпустят ИИ-мультсериалы по текстам Эдуарда Успенского — нейросети помогут снизить стоимость производства 09 апреля 2026, 13:39
-
Искусственный интеллект Россияне скупают «железо» для самостоятельного запуска ИИ: спрос на топовые графические процессоры вырос на 91% 09 апреля 2026, 10:45
-
Искусственный интеллект Wildberries запустила ИИ-примерку косметики — пока нейросеть умеет наносить на фото только помаду и блёстки 08 апреля 2026, 13:34
-
Искусственный интеллект Яндекс Поиск сэкономил 4,5 млрд ₽ в 2025 году благодаря ИИ — при этом качество ответов Алисы AI выросло в 3 раза 07 апреля 2026, 19:35
-
Искусственный интеллект Потребление токенов в компаниях выросло на 32 000% — но только 9% бизнеса обеспечены инфраструктурой для ИИ 27 марта 2026, 17:30
-
Россия В работе «Ростелекома» произошёл масштабный сбой из-за DDoS-атаки — пользователи жалуются на проблемы с интернетом 06 апреля 2026, 23:59
-
Бизнес В Москве проходит форум о целевых капиталах: бизнес обсуждает финансовую устойчивость НКО и их будущее 03 апреля 2026, 14:17
-
Ритейл «Купер» запустил программу лояльности: малый и средний бизнес сможет вернуть 1,5% с закупок 31 марта 2026, 11:35