Истории

Когда появится равный человеку ИИ: мнение исследователей

Истории
Анна Полякова
Анна Полякова

Редактор (RB)

Вероника Елкина

В основе науки об искусственном интеллекте лежит следующая идея: однажды появится алгоритм, который будет равен человеку по уму. Такая система обычно называется ИИ общего назначения или сильный ИИ (General AI). Однако среди исследователей до сих пор нет общего мнения о том, когда это может произойти.

Когда появится равный человеку ИИ: мнение исследователей
Присоединиться

Для книги «Архитекторы интеллекта: вся правда об искусственном интеллекте от его создателей» писатель и футурист Мартин Форд взял интервью у 23 самых выдающихся исследователей в области ИИ, включая CEO DeepMind Демиса Хассабиса, руководителя Google AI Джеффа Дина и ИИ-директора в Стэнфорде Фей-Фей Ли. Каждого из них Форд спросил, в каком году вероятность создания сильного ИИ составит не менее 50%.

Из 23 человек ответили 18, и только двое из них согласились на публикацию предсказаний под своим именем. Интересно, что они дали самые экстремальные ответы: Рэй Курцвейл, футуролог и директор по инженерным разработкам в Google, назвал 2029 год, а Родни Брукс, робототехник и соучредитель iRobot, — 2200. Остальные догадки расположились между этими двумя полюсами, среднее значение — 2099 год, то есть через 80 лет.

Форд говорит, что эксперты стали называть более отдаленные даты — в опросах прошлых лет они заявляли, что сильный ИИ может появиться примерно через 30 лет.

«Вероятно, существует некоторая корреляция между тем, насколько вы дерзки или оптимистичны, и тем, насколько вы молоды», — добавил писатель, отметив, что нескольким его собеседникам было за 70, и они пережили взлеты и падения ИИ. «После работы над этой проблемой в течение десятилетий, возможно, вы становитесь немного более пессимистичными», — считает он.

Форд также указал, что эксперты высказывают разные мнения о способе появления ИИ общего назначения — одни считают, что для этого достаточно имеющихся технологий, другие же категорически с этим не согласны.

Некоторые исследователи утверждают, что большинство инструментов уже готовы, а теперь требуются просто время и усилия. Их оппоненты убеждены, что для создания сильного ИИ все еще не достает многих фундаментальных открытий. По словам Форда, ученые, чья работа касалась глубокого обучения, склонны думать, что в будущем прогресс будет достигнут с использованием нейронных сетей — рабочей лошадки современного ИИ. Те, кто имеет опыт работы в других областях ИИ, считают, что для построения его сильной версии потребуются дополнительные методы наподобие символической логики.

«Некоторые люди из лагеря глубокого обучения очень пренебрежительно относятся к идее напрямую разработать что-то вроде здравого смысла в ИИ. Они думают, что это глупо. Один из них сказал, что это все равно что пытаться засунуть кусочки информации прямо в мозг», — говорит Форд.

Все опрошенные отметили ограничения существующих ИИ-систем и ключевые навыки, которые им еще предстоит освоить, в том числе трансферное обучение, когда знания в одной области применяются к другой, и обучение без наставника, когда системы узнают новое без участия человека. Подавляющее большинство современных методов машинного обучения полагаются на данные, размеченные людьми, что является серьезным препятствием для их развития.

Интервьюируемые также подчеркнули абсолютную невозможность делать прогнозы в области, подобной ИИ, где ключевые открытия начинают работать в полную мощь только спустя десятилетия после их обнаружения.

Стюарт Рассел, профессор Калифорнийского университета в Беркли, автор одного из основополагающих учебников по ИИ, указал, что технологии для создания сильного ИИ, «не имеют ничего общего с большими данными или более мощными машинами».

«Я всегда рассказываю историю из ядерной физики. Точка зрения, высказанная Эрнестом Резерфордом 11 сентября 1933 года, заключалась в том, что энергию из атомов извлечь нельзя. Однако на следующее утро Лео Силард прочитал речь Резерфорда, разозлился и изобрел ядерную цепную реакцию, опосредованную нейтронами! Таким образом, предсказание Резерфорда было опровергнуто примерно через 16 часов. Точно так же совершенно бессмысленно делать точные прогнозы в области ИИ», — сказал Рассел.

Исследователи также не сошлись в оценке потенциальной опасности ИИ. Ник Бостром, оксфордский философ и автор книги «Искусственный интеллект: Этапы. Угрозы. Стратегии» и фаворит Илона Маска, утверждает, что ИИ представляет собой большую угрозу для человечества, чем изменение климата. Он и его сторонники считают, что одной из самых больших проблем в этой области является обучение ИИ человеческим ценностям.

«Дело не в том, что ИИ возненавидит нас за порабощение или что внезапно возникнет искра сознания, и он взбунтуется. Скорее, он будет очень старательно преследовать цель, которая отличается от нашего истинного намерения», — сказал Бостром.

Большинство респондентов заявили, что вопрос об угрозе ИИ крайне абстрактен по сравнению с такими проблемами, как экономический спад и использование передовых технологий в войне. Барбара Грос, профессор в области ИИ в Гарварде, внесшая весомый вклад в область языковой обработки, сказала, что проблемы этики сильного ИИ в основном «отвлекают».

«У нас есть ряд этических проблем, связанных с существующим ИИ. Думаю, что не стоит отвлекаться от них из-за пугающих футуристических сценариев», — считает она.

По словам Форда, подобные споры можно назвать самым важным итогом его опроса: они показывают, что в такой сложной области, как искусственный интеллект, нет простых ответов. Даже самые именитые ученые не могут прийти к единому мнению в фундаментальных проблемах этой области знания.

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Чем различаются слабый, сильный и супер-ИИ
  2. 2 Шарф с глазами и маска-линза: как можно обмануть алгоритмы распознавания лица
  3. 3 Искусственный интеллект — не идеальный рекрутер. И вот почему
  4. 4 К чему привело развитие дипфейков и что будет дальше
AgroCode Hub
Последние новости, актуальные события и нетворкинг в AgroTech-комьюнити — AgroCode Hub
Присоединяйся!