Стивен Хокинг: создание ИИ станет «либо лучшим, либо худшим» событием в истории человечества
В Кембриджском университете создан институт для изучения будущего искусственного интеллекта. По этому поводу известный физик-теоретик Стивен Хокинг рассказал, какое будущее ожидает человечество в эру ИИ.
Профессор Стивен Хокинг предупредил, что создание мощного искусственного интеллекта «станет либо лучшим, либо худшим событием в истории человечества», и поприветствовал создание научной организации, которая будет заниматься исследованием перспектив искусственного интеллекта как «критически важного вопроса для будущего нашей цивилизации и нашего вида».
Стивен Хокинг на открытии Центра будущего интеллекта имени Леверхалма в среду. Фото: Крис Радберн/PA
Хокинг выступал в Кембриджском университете на церемонии открытия Центра будущего интеллекта имени Леверхалма (LCFI) – междисциплинарного института, сотрудники которого попытаются найти ответы на некоторые из открытых вопросов, поднятых в ходе стремительного развития технологий ИИ.
«Мы посвящаем очень много времени изучению истории, – сказал Хокинг. – Которая, давайте взглянем правде в глаза, по большей части является историей глупости. Так что людям пойдет на пользу вместо этого изучать будущее интеллекта».
Хотя знаменитый физик всегда настороженно относился к ИИ и заявлял, что человечество рискует и может стать архитектором собственного конца, если создаст сверхинтеллект с независимой волей, он также быстро нашел положительные стороны изучения ИИ.
«Сложно переоценить потенциальные преимущества создания интеллекта, – сказал он. – Мы не может предугадать, чего сможем достичь, если наш разум будет усилен ИИ. Возможно, плоды этой новой технологической революции помогут нам возместить ущерб, нанесенный природе в ходе предыдущей революции – индустриализации. Кроме того, можно будет по-новому взглянуть на решение проблем болезней и бедности».
Хув Прайс – академический директор Центра. Фото: Джон Тонкс
«Наша жизнь изменится во всех аспектах. Говоря короче, успех в создании ИИ может стать важнейшим событием в истории нашей цивилизации».
Хув Прайс, академический директор Центра и профессор философии Кембриджского университета, где Хокинг тоже носит звание академика, заявил, что его организация появилась отчасти благодаря работе Центра экзистенциальных рисков. Этот институт, который таблоиды окрестили «местом изучения Терминаторов», занимается более широким диапазоном проблем, в то время как сфера интересов LCFI имеет достаточно узкую сферу интересов.
«Мы пытаемся избавиться от этих ассоциаций с "терминаторами", – говорит Прайс. – Но, как и их прототип, они возвращаются снова и снова».
Пионер ИИ, профессор когнитивных наук в Университете Сассекса Маргарет Боден тоже одобряет развитие подобных дискуссий. Еще в 2009 году она отмечала, что эту тему не воспринимают всерьез даже сами исследователи ИИ. «Сфера искусственного интеллекта крайне увлекательна, – считает она – но у нее есть ограничения, которые могут превратиться в смертельные угрозы, если мы не подойдем к делу критически».
О потенциальных опасностях ИИ наравне с его преимуществами говорят не только в научном сообществе. Свои опасения по поводу вреда, который искусственный сверхинтеллект может нанести человечеству, выражали и многие лидеры технологической отрасли, в том числе предприниматель Илон Маск.
Материалы по теме:
Что произойдет с чат-ботами и искусственным интеллектом в ближайшие два года?
Искусственный интеллект охраняет тебя. Почему вы всегда в безопасности, заказывая Uber
Специалист по нейронаукам рассказывает о будущем со сверхчеловеческим интеллектом
Финансируемый Илоном Маском стартап создает «полицию искусственного интеллекта»
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Популярное
Материалы по теме
-
Пройти курс «Старт работы на Яндекс Маркете»
- 1 «Самокат» раскрыл правила ценообразования на фоне проверки ФАС В компании заявили, что придерживаются клиентоориентированного ценообразования 19 марта 15:17
- 2 Baidu выпустила две бесплатные модели ИИ для конкуренции с DeepSeek Обе доступны в чат-боте Ernie Bot 17 марта 11:40
- 3 Руководство DeepSeek ограничивает зарубежные поездки персонала В особенности в США — на фоне рекомендаций властей, которые борются с «утечкой мозгов» 16 марта 15:17
- 4 «Сбер» выпустил обновленную линейку моделей ИИ GigaChat 2.0 В компании утверждают, что модель является сильнейшим русскоязычным ИИ 13 марта 17:00