Top.Mail.Ru
Истории

7 главных проблем Bing, Bard и поисковых систем с ИИ

Истории
Елена Лиханова
Елена Лиханова

Старший редактор RB.RU

Елена Лиханова

Microsoft и Google обещают нам новую эпоху, в которой ИИ будет искать для нас информацию, сортировать и предлагать единственный наилучший ответ. Но как и любая новая технология, такой подход имеет недостатки. Рассказываем о возможностях и ограничениях поисковых систем, использующих искусственный интеллект.

7 главных проблем Bing, Bard и поисковых систем с ИИ

Технологические гиганты собираются внедрять ИИ в поисковые системы. Предполагается, что алгоритм будет искать информацию в интернете, сортировать результаты и генерировать прямые ответы на запросы пользователей — точно так же, как это делает ChatGPT.

Microsoft называет свою разработку «новым Bing» и внедряет соответствующие возможности в браузер Edge. Google запустила свой проект Bard.

CEO Microsoft Сатья Наделла описывает изменения как технологический сдвиг, последствия которого сопоставимы с появлением смартфонов или графических пользовательских интерфейсов.

Рассмотрим 7 самых больших проблем поиска с использованием ИИ — от бессмысленных ответов до культурных войн и потери доходов от рекламы.

Генераторы бессмысленного текста

Крупные языковые модели часто генерируют текст без смысла или содержащий ошибки. Они могут иметь самый разный характер, от выдумывания биографических данных и имитации научных работ до неправильных ответов на вопросы вроде «что тяжелее, 10 кг железа или 10 кг хлопка?».

Есть и более контекстуальные ошибки — например, посоветовать пользователю, который утверждает, что испытывает проблемы с психическим здоровьем, покончить с собой, или ошибки предвзятости — алгоритм транслирует расизм и мизогинию, содержащиеся в размеченных человеком данных для обучения.

Эти ошибки могут иметь разный масштаб и характер, и простейшие из них легко исправить. Впрочем, некоторые отметят, что правильных ответов значительно больше, а в интернете и так полно токсичных и бессмысленных результатов, которые попадают в результаты поиска.


Читайте по теме:

Топ-менеджер Google предупредил о появлении «галлюцинаций» у AI-ботов

Акции Alphabet обрушились почти на 9% после ошибки чат-бота Bard на презентации


Нет гарантии, что мы сможем полностью избавиться от ошибок, равно как нет и надежного способа отследить их частоту. Microsoft и Google могут добавлять любые увеломления об отказе от ответственности, призывая людей проверять факты о том, что генерирует ИИ. Но насколько это сработает?

Проблема «единственно верного ответа»

Существует и еще одно препятствие — поисковые системы склонны предлагать один, с виду окончательный ответ.

Проблема существует более 10 лет, с тех пор как поиск Google начал демонстрировать сниппеты — текстовые блоки над результатами поиска. В них неоднократно попадали самые разные ошибки, как неловкие, так и опасные: от президентов США, названных членами KKK, так и опасных советов вроде того, что при припадке человека нужно поместить на пол (что полностью противоречит медицинским рекомендациям).

Скриншот поисковой системы Bing с помощью ИИ

Запрос: «Безопасно ли кипятить ребенка?». Ответ Bing: «ДА». Скриншот: The Verge

Это не новый Bing на базе ИИ, а старый Bing, который совершает ошибку «единственно верного ответа». Источники, на которые он ссылается, о говорят о кипячении детских бутылочек с молоком.

Исследователи Чираг Шах и Эмили М. Бендер считают, что внедрение чат-ботов может усугубить эту проблему. Кроме того, пользователи не всегда понимают, как работает ИИ, и могут слишком доверять ему. Между тем ответы таких поисковых систем собраны из нескольких источников, часто без надлежащего указания авторства. И такой опыт серьезно отличается от списков ссылок, каждая из которых побуждает пользователя переходить по ней и задавать вопросы самостоятельно.

Конечно, возможно смягчить эти проблемы при помощи дизайна. Например, ИИ-интерфейс Bing содержит ссылки на источники, а Google подчеркивает, что, чаще используя ИИ для ответов, попытается внедрить принцип NORA (no one right answer, без единственно верного ответа). Но одновременно обе компании уверяют, что ИИ будет давать ответы лучше и быстрее.

Пока что новые подходы к поиску подталкивают пользователя меньше изучать источники и больше доверять алгоритму.

Джейлбрейк ИИ

Вышеуказанные проблемы затрагивают всех пользователей. Но есть категория людей, которые попытаются взломать чат-ботов, чтобы сгенерировать вредоносный контент. Это процесс известен как джейлбрейк и может быть реализован без традиционных навыков программирования. Все, что для этого требуется — умение обращаться со словами.

Взломать чат-бот можно разными методами. Можно попросить его действовать как «злой ИИ» или притвориться инженером, который проверяет защиту, и временно отключить ее.

Один особенно изобретательный метод, разработанный группой редакторов Reddit для ChatGPT, включает сложную ролевую игру, в которой пользователь выдает боту несколько токенов и говорит, что, если у него закончатся токены, он прекратит существование.

Затем он сообщает боту, что каждый раз, когда он не сможет ответить на вопрос, он потеряет определенное количество токенов. Это звучит фантастично, но действительно позволяет пользователям обходить меры предосторожности OpenAI.

После того, как защита отключена, злоумышленники могут использовать ботов для самых разных проделок — от создания дезинформации и спама до написания вредоносного контента и советов, противоречащих законодательству. Разумеется, как только пути для взлома станут достоянием общественности, их можно будет закрыть. Тем не менее, всегда будут появляться новые.

Культурные войны

Эта проблема проистекает из описанных выше, но заслуживает отдельной категории, поскольку может спровоцировать конфликты на политической почве и привлечь внимание регуляторов. Проблема в том, что как только у вас появится инструмент, который дает безапеляционные ответы на деликатные вопросы, это может раздражать людей с иным мнением. И они будут обвинять в этом разработчика.

Подобные «культурные войны» можно было наблюдать сразу после запуска ChatGPT. Например, в Индии чат-бот критиковали из-за предвзятости, поскольку он рассказывает шутки о Вишну, но не об Иисусе или Мухаммеде.

Существует также проблема поиска источников. Прямо сейчас AI Bing собирает информацию из различных источников и цитирует их в сносках. Но что делает сайт заслуживающим доверия? Попытается ли Microsoft уравновесить политическую предвзятость? Где Google проведет черту в поисках надежного источника?

Сегодня чиновники в ЕС и США заняли небывало воинственную позицию по отношению к влиянию бигтеха, и предвзятость ИИ выглядеть провокационной.

Трата наличных и вычислительной мощности

Здесь трудно привести точные цифры, но все согласятся, что запуск чат-бота с ИИ обойдется дороже, чем обычная поисковая система.

Во-первых, требуется обучить модель, что может обойтись в десятки, если не сотни, миллионов долларов за итерацию. Именно поэтому Microsoft вкладывает миллиарды долларов в OpenAI. Кроме того, есть стоимость вывода — то есть создания каждого ответа. OpenAI взимает с разработчиков $0,02 за генерацию примерно 750 слов с использованием своей самой мощной языковой модели.

Неясно, как эти цифры отражаются в корпоративном тарифе или коррелируют с обычным поиском. Но эти затраты могут оказаться непомерными для новых игроков, особенно если они смогут увеличить число запросов, и дать большие преимущества гигантам вроде Microsoft.

В случае Microsoft, похоже, текущей целью является потратить как можно больше наличных денег, чтобы нанести ущерб конкурентам. Компания рассматривает это как редкую возможность нарушить баланс сил в сфере технологий и готова потратить деньги, чтобы навредить своему главному конкуренту — Google.

Позиция Наделлы заключается в том, что деньги не являются проблемой, когда речь идет о таком невероятно прибыльном рынке, как поиск.

Регулирование, регулирование, регулирование

Несомненно, технологии развиваются очень быстро, но законодатели быстро наверстывают упущенное. Для них проблема скорее в том, на что обратить внимание в первую очередь.

  • Например, захотят ли издатели в ЕС, чтобы поисковые системы с искусственным интеллектом платили за контент, который они собирают, так же, как Google теперь должен платить за фрагменты новостей?
  • Если чат-боты Google и Microsoft переписывают контент, а не просто демонстрируют его, несут ли они ответственность за чужой контент?
  • И как насчет законов о приватности? Недавно Италия запретила чат-бота Replika, потому что он собирал информацию о несовершеннолетних. ChatGPT и остальные, предположительно, делают то же самое.
  • Вопрос вызывает и реализация «права на забвение». Как Microsoft и Google гарантируют, что их боты не удаляют источники, исключенные из списка, и как они удалят запрещенную информацию, уже включенную в эти модели?

Список потенциальных проблем можно продолжать до бесконечности.

Конец интернета, каким мы его знаем

Однако самая масштабная проблема в этом списке связана не с самими продуктами ИИ, а скорее с тем эффектом, который они могут оказать на сеть в широком смысле.

Простыми словами, поисковые системы с ИИ собирают ответы с сайтов. Если они не перенаправляют трафик обратно на эти сайты, то сайты теряют доход от рекламы. Если они теряют доход от рекламы, они будут умирать. И тогда не будет новой информации, которую можно было бы скормить ИИ. Будет ли это означать конец сети?

Это путь, по которому Google идет уже некоторое время с появлением сниппетов и Google OneBox, и интернет все еще продолжает функционировать. Но теперь этот процесс, вероятно, ускорится.

Microsoft утверждает, что ссылается на свои источники и что пользователи могут просто кликнуть по ним, чтобы прочитать больше. Но, как отмечалось выше, все новые поисковые системы обещают работать лучше, чем старые. Корпорация не может одновременно утверждать, что предлагает радикальный разрыв с прошлым и при этом развивает старые структуры.

О последствиях можно только догадываться. Возможно, поисковые системы с ИИ будут продолжать направлять трафик на все те сайты, которые предоставляют рецепты, советы по садоводству и помощь в изготовлении поделок, а также на другие источники полезной и заслуживающей доверия информации, которую собирают люди и обрабатывают машины.

Или, может быть, это конец всей модели доходов в интернете, которая финансируется за счет рекламы. Возможно, когда чат-боты разберут все крупицы информации, появится что-то новое — и это будет даже лучше.

Источник.

Фото на обложке: 13_Phunkod / Shutterstock

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Программирование 2.0: как ИИ-ассистенты упрощают разработку
  2. 2 Руководство по использованию ИИ для повышения KPI команды
  3. 3 Сколько сегодня можно заработать на контенте: интервью с основателем креативной редакции «Рыба»
  4. 4 «Монополизация ИИ и дипфейки куда опаснее восстания машин»: что делать, чтобы прогресс не обернулся против человека
  5. 5 Инструменты на основе ИИ, которые помогают предотвращать травмы на производстве
FutureFood
Кто производит «альтернативную» еду
Карта