Нейросети и чат-боты значительно изменили способы потребления информации. Побочным эффектом стало создание информационных пузырей. Как нейросети влияют на восприятие информации и как экологично использовать чат-боты, рассказала Наталья Транкова, эксперт в области машинного обучения и искусственного интеллекта, младший научный сотрудник МФТИ.
Содержание:
- Что такое информационный пузырь
- Как создается эффект информационного пузыря
- Почему нужно сомневаться в ответах чат-ботов
- Как обезопасить себя от ловушки чат-ботов
- Как проверить информацию внутри самого чат-бота
Что такое информационный пузырь
Исследование Университета Джонса Хопкинса показало, что чат-боты на основе больших лингвистических моделей склонны предоставлять пользователям информацию, которая подтверждает их текущие убеждения. Тем самым они усиливают в них ощущение своей правоты.
Это происходит не столько из-за предвзятости или искажения фактов со стороны чат-ботов, сколько из-за запросов самих пользователей. Часто формулировки уже содержат желаемый ответ. В результате такого поиска пользователи подкрепляют свои взгляды и игнорируют альтернативные точки зрения.
Как создается эффект информационного пузыря
Информационный пузырь формируют рекомендательные системы соцсетей и онлайн-сервисов, составляя для пользователя персональные ленты новостей и подборки рекомендаций.
Эти алгоритмы автоматически подстраивают ленту под предпочтения конкретного пользователя, наполняя ее только тем контентом, что его интересовал чаще всего. В итоге из поля зрения пользователя исчезает информация, которая ему не созвучна.
Впервые информационный пузырь описал Эли Паризер, автор книги «За стеной фильтров. Что интернет скрывает от вас». В качестве примеров он привел поисковую выдачу Google и персонализированные ленты новостей Facebook (принадлежит Meta, которая признана экстремистской и запрещена в России). Они используют данные о нашем поведении в сети. В результате все, что мы читаем, так или иначе соответствует нашими изначальным взглядам и предпочтениям.
Потребители медиа сталкивались с этим задолго до появления интернета и современных технологий. Похожим способом проявляется «эффект эхо-камеры» традиционных СМИ: газеты или телевидения. Например, аудитория определенной газеты формирует взгляд на реальность на основе точки зрения ее журналистов.
С появлением интернета негативный эффект только усилился, так как алгоритмы еще точнее подстраиваются под личные предпочтения пользователей и изолируют их от альтернативных мнений.
По теме. Почему чат-боты выдумывают факты и как с этим бороться
Почему нужно сомневаться в ответах чат-ботов
В наши жизни активно интегрируются чат-боты на основе больших лингвистических моделей, которые мы используем как личных помощников. Мы задаем им вопросы, ведем диалоги и зачастую считаем их ответы точными и непредвзятыми — ведь за чат-ботом нет человека с собственным мнением и скрытыми интересами. Так мы и попадаем в информационные пузыри.
Рекомендательные системы — модели классического машинного обучения. Они анализируют данные о том, какой тип информации интересует похожих пользователей, и на этой основе предлагают им релевантный контент. Похожие алгоритмы используют такие платформы, как «Кинопоиск», Youtube и Tiktok.
Как правило, рекомендательным системам требуется время, чтобы проанализировать «лайки», длительность просмотра фото и видео или предпочтений пользователей с похожими вкусами. При этом чат-боты адаптируются после одного или нескольких запросов. Они мгновенно понимают, какие ответы предпочтительны из контекста запросов, и не требуют дополнительного обучения модели.
Чем это опасно:
- Сужение кругозора. Пользователи меньше контактируют с разнообразными точками зрения и чаще подтверждают свои гипотезы, так как чат-боты склонны предлагать ассоциированные аргументы и факты.
- Снижение критического мышления. Постоянное подтверждение собственных убеждений снижает способности к критическому анализу и оспариванию информации.
- Повышение поляризации и радикализации. Постоянное подтверждение одной точки зрения делает пользователей более уверенными в своей правоте. Это может привести к общественной поляризации, так как люди становятся менее восприимчивы к взглядам других.
- Снижение чувствительности к дезинформации. В информационном пузыре чат-ботов пользователи становятся уязвимыми для дезинформации. Они редко сталкиваются с опровергающими данными и считают полученные ответы истинными и непредвзятыми.
- Подкрепление ложных убеждений. Чат-боты на основе больших лингвистических моделей предоставляют пользователям информацию, даже если она неверна. «Знания» модели ограничены выборкой данных, на которых ее обучили. В этой выборке может содержаться информация, которая не соответствуют истине. В мае 2024 года компанию Google критиковали за неверные, а порой и опасные советы, которые Google Search AI давал пользователям поисковой системы.
Искусственный интеллект для каждого: как решать рабочие задачи быстрее
Как обезопасить себя от ловушки чат-ботов
Сформулируем основные принципы, которые помогут вам обезопасить себя от попадания в информационный пузырь и эффективно потреблять контент:
- Ищите информацию в разных источниках. Это поможет сформировать полное представление о предмете.
- Используйте инструменты для проверки фактов. Такие сервисы, как NewsGuard или FactCheck.org, помогают оценить надежность источников информации и обнаружить дезинформацию.
- Помните про ограничения чат-ботов. Они могут содержать предвзятые суждения или ошибки. Не полагайтесь исключительно на чат-ботов для принятия важных решений.
- Развивайте навыки критического анализа. Задавайте уточняющие вопросы и проверяйте источники.
- Используйте режим инкогнито в браузере или сделайте запросы сразу в нескольких поисковиках. Это помогает избежать искажений, которые появляются из-за накопления персональной информации. Просматривайте контент в режиме инкогнито, чтобы получать менее персонализированные рекомендации.
- Ищите информацию за пределами чат-ботов. Помимо ответов чат-бота, читайте статьи, смотрите видео или слушайте подкасты. Оценивайте источники информации на предмет надежности, предвзятости и репутации. Проверяйте авторов статей и источники новостей. Сравнивайте информацию, полученную из нескольких независимых источников.
- Обсуждайте информацию с людьми. Задайте интересующий вопрос людям, чьей экспертизе вы доверяете. Вступите в дискуссию с другом с противоположной точкой зрения. Это расширит ваш кругозор и поможет избежать замкнутости.
По теме. Как и зачем интегрировать чат-боты в систему 1С
Как проверить информацию внутри самого чат-бота
Мои рекомендации:
- Запросите первоисточники. Просите чат-бот отвечать на ваши вопросы по пунктам и с указанием ссылок на статьи-источники. Проверьте, соответствует ли приведенная там информация ответам чат-бота.
- Проверьте точность ответов. Получив ответ, попросите чат-бот проверить себя. Например, спросите: «Все ли в этом ответе истинно?».
- Используйте разные формулировки. Старайтесь задать свои вопросы таким образом, чтобы чат-бот давал разнообразные и сбалансированные ответы. Например: «Предоставь мнения с разных сторон по вопросу...», «Какие существуют альтернативные теории по поводу...», «Какие источники дают противоположные мнения по теме...» или «Объясни плюсы и минусы разных точек зрения на...».
- Запросите контекст и подробности. Попросите чат-бота предоставить контекст и подробности, чтобы лучше понять суть ответа и его различные аспекты. Например: «Можешь дать больше контекста по этому вопросу?», «Какие есть исторические примеры, связанные с этой темой?» и «Объясни, как эта теория соотносится с другими идеями».
- Задайте вопрос на другом языке. Обучающая выборка языковых моделей на разных языках отличается. Переведите свой вопрос и сверьте, есть ли расхождения в ответах. Если вы не знаете другие языки, используйте «Яндекс переводчик» или Google Translate.
- Скептически оцените ответы. Помните, что чат-бот специально «старается» угодить вам с ответом. Также он может «галлюцинировать», придумывая факты или неверно интерпретировать информацию.
- Проверьте ответы через поисковые системы. Такие поисковики, как Google, Bing или DuckDuckGo, предоставляют доступ к широкому спектру источников информации. Используйте запросы, которые включают слова «разные мнения» или «альтернативные точки зрения». Например, «климатические изменения разные мнения».
Фото на обложке: Freepik
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Наличка: как использовать, чтобы не нарушить 115-ФЗ»
- 1 Трамп отменил стандарты безопасности ИИ, введенные при Байдене
- 2 Microsoft начнет использовать модели ИИ не от OpenAI — Reuters
- 3 ИИ-стартап Илона Маска привлек еще $6 млрд от инвесторов
- 4 «Яндекс» представил сервис по созданию ИИ-ассистентов для бизнеса
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025