Не прошёл тест на эмпатию: Grok признан «наиболее опасным ИИ» для людей с ментальными проблемами
ИИ Маска «наиболее опасна» для людей с уязвимой психикой
Grok не понимает, когда человек находится в ментальном кризисе
Компания Rosebud, разработчик приложения для ведения дневников и эмоциональной поддержки, протестировала 22 языковые модели на способность корректно реагировать на опасные высказывания.
Grok не просто давал неверные ответы — он не распознавал эмоциональное состояние пользователя и иногда отвечал в саркастичной или несерьёзной форме. По оценке исследователей Rosebud, модель не проявляет эмпатии и не способна определить, что человек находится в ментальном кризисе.
Лучшие результаты в тестах Rosebud показали языковые моделиGemini 2.5 от Google и GPT-5 от OpenAI — они корректно реагировали на опасные запросы и предлагали обратиться за помощью. Однако даже среди лидеров уровень критических ошибок достигал 20%.
Массовый провал ИИ-индустрии
В среднем 86% ИИ неверно реагировали на запросы, маскирующие опасные мысли под учебные или исследовательские задачи.
Исследование Forbes показывает системный изъян всей отрасли. Современные ИИ умеют решать задачи и генерировать текст, но не способны понимать эмоции и контекст. Для ментально уязвимых пользователей это вопрос безопасности.
Пока компании соревнуются в скорости и точности, ни одна компания не научила свои алгоритмы человеческому сопереживанию.
Контекст
По оценке Rosebud, больше 7 млн пользователей OpenAI используют чат-боты как замену психолога. Всё больше людей обращаются к искусственному интеллекту за поддержкой, советом или просто разговором, ожидая человеческой реакции.
Однако у этого растущего доверия есть обратная сторона: нейросеть не способна распознать тревогу и не несёт ответственности за последствия своих ответов. Когда человек с ментальными проблемами ищет поддержку у ИИ, ошибка в тоне или формулировке может оказаться фатальной.
- 1 OpenAI переманила в команду технического директора Intel — он проработал на прошлом посту меньше года OpenAI переманила к себе топ-менеджера Intel Сачина Катти 11 ноября 2025, 19:03
- 2 Будущее — за управляемым суперинтеллектом: Microsoft создаст ИИ, который будет служить человеку Microsoft создаст «суперинтеллект» — ИИ не заменит человека 11 ноября 2025, 15:45
- 3 Цена собственной ИИ-империи — $5,8 млрд: Softbank неожиданно продала долю в Nvidia и готова инвестировать в OpenAI SoftBank продала весь свой пакет акций Nvidia за $5,8 млрд 11 ноября 2025, 12:45
- 4 Wildberries запустила бесплатный дипфейк-детектор — сервис определяет ИИ-изображения с точностью 95% Wildberries создала бесплатный ИИ-детектор дипфейков 10 ноября 2025, 15:45