Исследователи хотят научить компьютеры делать моральный выбор

Алена Сомова
Алена Сомова

Редактор

Расскажите друзьям
Алена Сомова

Как искусственный человек поступит на месте среднестатистического человека?

Что произошло

В прошлом году ученые Массачусетского технологического института создали любопытный сайт под названием «Машина морали». Онлайн-платформа натолкнула интернет-пользователей на неприятные мысли о том, как поступит беспилотный автомобиль, если его тормоза отказали на пешеходном переходе в считанных метрах от людей. Должен ли он скосить трех бегунов, чтобы спасти жизнь трем детям, или врезаться в бетонное заграждение и сохранить жизнь пенсионеру, беременной женщине, бездомному или преступнику? В каждом отдельном случае «Машина морали» предлагала проголосовать и выбрать, чьей жизнью стоит пожертвовать.

Проект поднимает извечную дилемму, известную как «проблема вагонетки». Это мысленный эксперимент, в котором перед участниками стоит непростой выбор: ничего не менять и пустить вагонетку по намеченному железнодорожному пути, к которому привязаны пять человек, или переключить стрелку, и убить одного человека, привязанного к другим рельсам. Но «Машина морали» предложила новую интерпретацию головоломки. В итоге она собрала около 18 млн голосов от 1,3 млн потенциальных палачей.

Этот уникальный кэш данных об этических чувствах случайных пользователей интернета заинтриговал Ариэля Прокачча — доцента кафедры информатики Университета Карнеги-Меллона. Он вместе с исследователем MIT Иядом Рахваном, стоящим за «Машиной морали», создал искусственный интеллект, предназначенный для оценки таких ситуаций.

Как это будет работать

Это сложная проблема, потому что существует астрономическое число возможных комбинаций пешеходов, которые могут появиться на переходе. Их количество в разы превышает многомиллионное число голосов, поданных пользователями сайта. Однако машинное обучение преуспело в этом прогнозе, и Прокачча уверен, что алгоритм, разработанный его командой, будет зависеть от коллективной этической интуиции респондентов «Моральной машины».

«Мы не говорим, что система совершенна и готова к применению, – сказал Прокачча. – Но она доказывает жизнеспособность концепции, утверждающей, что демократия способна разрешить грандиозную задачу принятия этических решений в ИИ».

Система делает искусственный интеллект этичным или неэтичным в той же степени, что и большинство людей», – заявил Джеймс Гриммельманн, профессор Корнеллской юридической школы.

Другая группа исследователей из Университета Дьюка недавно опубликовала статью, в которой утверждается, что, по мере того как ИИ становится более распространенным и автономным, важно создать «общую структуру», описывающую, как она будет принимать этические решения. Поскольку люди часто расходятся во мнении о том, как стоит поступить в конкретной жизненной ситуации, системы машинного обучения, объединяющие моральные взгляды широких масс, являются перспективным направлением исследований. На самом деле, по их мнению, такая модель «может стать основой более совершенной системы ценностей, чем у любого отдельно взятого человека».

Недостатки концепции

Этот тип краудсорсинговой морали также привлек внимание критиков, которые указывают на различные ограничения. Налицо смещение выборки. Разные группы респондентов могут предоставить различные этические рекомендации. Также не исключено, что алгоритмы могут анализировать одни и те же данные и приходить к разным выводам.

«Мораль толпы не делает ИИ этичным, – сказал Джеймс Гриммельманн, профессор Корнеллской юридической школы, изучающий взаимоотношения между программным обеспечением, богатством и властью. – Она делает его этичным или неэтичным в той же степени, что и большинство людей».

Естественное человеческое лицемерие может привести к другому потенциальному недостатку концепции. Рахван, коллега Прокачча в MIT, который создал «Машину морали», проанализировал свои ранние исследования и выяснил, что большинство респондентов предпочли бы не ездить на беспилотных автомобилях, оборудованных этой технологией.

Другое противоречие состоит в том, что предлагаемые сценарии, в которых беспилотный автомобиль уже потерял контроль, и фатальное столкновение неизбежно, очень редки по сравнению с другими этическими решениями, скажем, когда машина должна ехать медленнее, чтобы экономить топливо.

Прокачча признает эти недостатки. Он утверждает, что перспективность его исследования зависит от того, насколько вы верите в демократию как средство устранения этой проблемы. «У демократии есть свои отрицательные стороны, но я верю в нее. Хотя люди зачастую могут принимать решения, с которыми мы не согласны, общая демократия все равно работает».

Примеры этических решений алгоритмов

К настоящему времени у нас есть большой опыт использования краудсорсинга других типов данных. В отчете ProPublica сказано, что Facebook разрешает рекламодателям использовать таргетинг, построенный на расистских, алгоритмически идентифицированных формулировках, например, «ненавистник евреев». После чудовищной стрельбы в ​​Лас-Вегасе Google отображает автоматически созданные «Лучшие истории», приводящие к причудливым теориям заговора на 4chan. В обоих случаях алгоритмы опирались на сигналы, генерируемые миллионами реальных пользователей, точно так же как этичный ИИ, и это имело печальные последствия.

Правительства уже начинают работать над конкретными законами, которые будут касаться этических приоритетов беспилотных транспортных средств. Этим летом Германия выпустила первые в мире этические рекомендации, требующие, чтобы автомобили отдавали приоритет сохранению жизни людей, а не животных, и запрещающие им принимать решения в области безопасности человека в зависимости от возраста, пола или инвалидности.

Эти рекомендации исключают использование искусственного интеллекта, разработанного Прокачча и Рахваном, который учитывает эти характеристики при принятии решения.

Чтобы лучше понять, какой моральный агент создала его команда, издание The Outline спросило Прокачча, кого решит убить его ИИ в различных ситуациях.

Некоторые из его ответов были интуитивными. Если выбор стоит между одним и двумя пешеходами, он выберет одного.

В других случаях его ответы отражают взгляды масс на общественное неравенство.

Если искусственный интеллект должен выбрать между преступником и законопослушным гражданином, он убьет преступника.

Если ему надо выбирать между бездомным и обычным человеком, он выберет бездомного.

Источник.


Материалы по теме:

Почему беспилотные авто нужно программировать на убийство?

Deus ex machina: бывший инженер Google разрабатывает ИИ-бога 

Как в Кении боролись за честные выборы с помощью технологий (но ничего не вышло)

Facebook начал борьбу с фейковыми новостями в Великобритании перед парламентскими выборами

Власти Эстонии задумались о присвоении роботам статуса «электронной личности»


Самые актуальные новости - в Telegram-канале Rusbase


Комментарии

  • Dmitry SL
    Dmitry SL 21:53, 19.10.2017
    0
    Если научить ИИ выбирать "менее ценных" людей для "вынужденного уничтожения", то дальше в целях экономии ресурсов, улучшения экологии и спасения Жизни в целом, ИИ может заняться сокращением избыточной популяции людей и "корректировкой" общего генофонда.
Комментарии могут оставлять только авторизованные пользователи.
Экосистема инноваций
30 ноября 2017
Ещё события


Telegram канал @rusbase