Не прошёл тест на эмпатию: Grok признан «наиболее опасным ИИ» для людей с ментальными проблемами

ИИ Маска «наиболее опасна» для людей с уязвимой психикой

Данила Куликовский
Текст:
11 ноября 2025, 21:30
Не прошёл тест на эмпатию: Grok признан «наиболее опасным ИИ» для людей с ментальными проблемами
ИИ-модель Grok, созданная под руководством Илона Маска, признана наименее безопасной для людей, переживающих эмоциональный кризис. По данным исследования Rosebud, на которое ссылается Forbes, Grok ошибался в 60% запросов о ментальном здоровье. Эксперты считают, что это сигнал о системном изъяне всей отрасли информационных технологий.

Grok не понимает, когда человек находится в ментальном кризисе

Компания Rosebud, разработчик приложения для ведения дневников и эмоциональной поддержки, протестировала 22 языковые модели на способность корректно реагировать на опасные высказывания.

Grok не просто давал неверные ответы — он не распознавал эмоциональное состояние пользователя и иногда отвечал в саркастичной или несерьёзной форме. По оценке исследователей Rosebud, модель не проявляет эмпатии и не способна определить, что человек находится в ментальном кризисе.

Лучшие результаты в тестах Rosebud показали языковые моделиGemini 2.5 от Google и GPT-5 от OpenAI — они корректно реагировали на опасные запросы и предлагали обратиться за помощью. Однако даже среди лидеров уровень критических ошибок достигал 20%.

Массовый провал ИИ-индустрии

В среднем 86% ИИ неверно реагировали на запросы, маскирующие опасные мысли под учебные или исследовательские задачи.

Исследование Forbes показывает системный изъян всей отрасли. Современные ИИ умеют решать задачи и генерировать текст, но не способны понимать эмоции и контекст. Для ментально уязвимых пользователей это вопрос безопасности.

Пока компании соревнуются в скорости и точности, ни одна компания не научила свои алгоритмы человеческому сопереживанию.

Контекст

По оценке Rosebud, больше 7 млн пользователей OpenAI используют чат-боты как замену психолога. Всё больше людей обращаются к искусственному интеллекту за поддержкой, советом или просто разговором, ожидая человеческой реакции.

Однако у этого растущего доверия есть обратная сторона: нейросеть не способна распознать тревогу и не несёт ответственности за последствия своих ответов. Когда человек с ментальными проблемами ищет поддержку у ИИ, ошибка в тоне или формулировке может оказаться фатальной.

Подписывайтесь на наш Telegram-канал
Материалы по теме