Роботы заменяют людей: почему сейчас все об этом говорят и чего тут бояться?

Никита Стаценко
Никита Стаценко

Внештатный автор

Расскажите друзьям
Светлана Зыкова

Почему ученые и исследователи ИИ спорят о том, нужны ли нам роботы? Насколько реален сценарий, по которому искусственный интеллект захочет (и сможет) уничтожить человечество? Когда робот займет мое рабочее место?

Приводим отрывок из книги писателя и журналиста The New York Times Джона Маркоффа «Homo Roboticus? Люди и машины в поисках взаимопонимания», который поможет во всем разобраться.

Конец эры печатников

Поздним весенним вечером в 1992 г. на Центральном вокзале пожилой человек в синей ветровке с надписью New York Times ожидал на платформе поезд в округ Вестчестер. Я работал в Times некоторое время, и меня заинтересовала призрачная фигура. «Вы сотрудник газеты?» — спросил я.

Как оказалось, много лет назад он был наборщиком в Times. В 1973 г. его профсоюз подписал соглашение о постепенном сокращении рабочих мест по мере внедрения компанией компьютеризированных систем печати в обмен на гарантию занятости до выхода на пенсию. Хотя этот человек не работал уже больше десятилетия, он по-прежнему приезжал в типографию на Таймс-сквер и проводил вечера с оставшимися печатниками.

Печатники и полиграфисты были высококвалифицированными работниками, которые особенно пострадали от появления в 1970-е мини-компьютеров и резкого падения их стоимости по мере перехода с транзисторов на интегральные схемы. Сегодня судьба печатника служит ярким примером того, что происходит с живым трудом под влиянием новой волны автоматизации.

Куда пойдет ИИ?

Сегодня в равной мере можно как включить людей в компьютерные системы, так и исключить их. Дальнейшее развитие и искусственного интеллекта, и средств усиления интеллекта заставит робототехников и ученых-компьютерщиков выбирать, как будут выглядеть системы на рабочих местах и в окружающем нас мире. Хотим мы этого или нет, но скоро нам придется сосуществовать с автономными машинами.

Разработчик программного обеспечения и консультант автомобильного проекта Google Брэд Темплтон как-то заметил: «Робот станет действительно автономным, когда вы прикажете ему идти на работу, а он решит отправиться на пляж». Это замечательная фраза, в которой самосознание соединяется с автономностью. Сегодня машины начинают действовать без значимого вмешательства людей или на уровне независимости, которую можно считать автономностью. Это ставит трудные вопросы перед разработчиками интеллектуальных машин. Однако по большей части инженеры игнорируют этические проблемы, возникающие при использовании компьютерных технологий. Лишь изредка сообщество исследователей искусственного интеллекта поддается дурным предчувствиям.

Крутая возможность для старшеклассников! Участвуй в Олимпиаде НТИ, чтобы поступить в ведущий вуз без экзаменов или получить ценный приз. Узнать подробности и проверить силы в тесте.

Роботы на войне

На проходившей в Атланте в 2013 г. конференции Humanoids, посвященной разработке и применению антропоморфных роботов, робототехник из Технологического института Джорджии Рональд Аркин обратился к аудитории со страстной речью под названием «Как НЕ создать Терминатора». Он напомнил собравшимся, что к своим трем знаменитым законам Азимов позднее добавил фундаментальный «нулевой» закон робототехники, который гласит: «Робот не может причинить вред человечеству или, бездействуя, допустить, чтобы человечеству был причинен вред».

Обращаясь более чем к 200 робототехникам и специалистам по искусственному интеллекту из университетов и компаний, Аркин призвал более глубоко задуматься о последствиях автоматизации. «Все мы знаем, что соревнования [DARPA Robotics Challenge] проходят с прицелом на чрезвычайные ситуации под девизом “найти и уничтожить”, — сказал он сардонически, добавив: Простите, я имел в виду девиз “найти и спасти”».

Граница между роботами, действующими как спасатели и как надзиратели, уже сейчас нечеткая, если вообще существует. Аркин показал отрывки из научно-фантастических фильмов, включая «Терминатор» 1984 г. Джеймса Кэмерона. В каждом из них фигурировали злобные роботы, выполнявшие задачи, которые DARPA ставило в своих соревнованиях: расчистка завалов, вскрытие дверей, проламывание стен, подъем по лестницам и вождение автомобилей. Разработчики могут использовать эти возможности как конструктивно, так и деструктивно в зависимости от своих намерений. Аудитория нервно смеялась, но Аркин не давал ей расслабиться. «Я шучу, — сказал он, — но мне хочется показать, что технологии, которые вы разрабатываете, могут использоваться в таких целях, о которых вы даже не задумывались».

В сфере вооружений потенциал неожиданных последствий долгое время был особенностью так называемых технологий двойного назначения, например ядерной энергии, которая может использоваться и как источник электричества, и как оружие. Теперь это все более справедливо для робототехники и искусственного интеллекта.

Это технологии двойного назначения не только с точки зрения возможности использования в качестве оружия, но и с точки зрения их потенциала расширять возможности людей или заменять их.

Сегодня мы все еще «в контуре управления» — машины, заменяющие людей или расширяющие их возможности, разрабатываются людьми, которые не могут сбросить с себя ответственность за последствия своих изобретений. «Если вы хотите создать Терминатора, то продолжайте делать свое дело не задумываясь и вы получите именно такое устройство, — сказал Аркин. — Но миру вокруг нас не все равно, какие будут последствия у того, что мы создаем».

Вопросы и проблемы автоматизации вышли за пределы технического сообщества. В оставшемся незамеченным открытом отчете Пентагона «Роль автономности в оборонных системах» авторы обратили внимание на этические проблемы автоматизации боевых систем. Военные уже напрямую сталкиваются с противоречиями, связанными с автономными системами вроде дронов и приближением к грани, за которой вопросы жизни и смерти уже будут решать не люди. В одном из своих выступлений Аркин утверждал, что, в отличие от людей, автономные боевые роботы не будут чувствовать угрозы личной безопасности, а это потенциально может уменьшить сопутствующий ущерб и избежать военных преступлений.

Аркин, кроме того, сформулировал новый набор этических вопросов. Что, если у нас будут роботы, обладающие моралью, а у противника — нет? На этот вопрос нет простого ответа. Действительно, технологии все более интеллектуального и автоматизированного оружия спровоцировали новую гонку вооружений. Добавление недорогого интеллекта к системам вооружений угрожает изменить баланс сил между странами.

Когда Аркин завершил выступление в величественном здании Медицинской академии в Атланте, одним из первых ему ответил директор DARPA Robotics Challenge Гилл Пратт. Он не стал опровергать точку зрения Аркина, а подтвердил, что роботы — технология двойного назначения: «Очень легко критиковать роботов, которых финансирует Министерство обороны, — сказал он. — Очень легко нарисовать робота, который похож на Терминатора, но, поскольку все вокруг нас имеет двойное назначение, это ничего не меняет. Если вы создаете робота для здравоохранения, то вам придется сделать его более автономным, чем робота-спасателя для работы в чрезвычайных ситуациях».

Передовые технологии всегда вызывали вопросы относительно двойного назначения. В наши дни искусственный интеллект и автономность машин привели к переосмыслению этой проблемы. До сих пор технологии двойного назначения прямо требовали от людей принятия этических решений относительно их использования. Автономность машин или отдаляет принятие этических решений человеком, или полностью исключает его.

Автономны ли современные роботы?

У нас уже есть примеры, когда ученые и инженеры в других областях задумывались о потенциальных последствиях того, что они делают, и многие из них вставали на защиту человечества. В феврале 1975 г., например, нобелевский лауреат Пол Берг призвал элиту новой тогда биотехнологии встретиться в конференц-центре Асиломар в Пасифик-Гроув, Калифорния. В то время рекомбинантная ДНК, полученная добавлением новых генов в ДНК живых организмов, была последним достижением. Оно одновременно сулило глобальный прогресс в медицине, сельском хозяйстве и новых материалах и открывало страшную возможность ненамеренного уничтожения человечества в результате появления новых микроорганизмов. Встреча ученых привела к экстраординарному решению.

Группа рекомендовала молекулярным биологам воздерживаться от определенных видов исследований и приостанавливать исследования для поиска путей обеспечения безопасности. Для мониторинга отрасли биотехнологи создали независимый комитет в Национальном институте здравоохранения. За десятилетие удалось собрать достаточно данных, чтобы снять ограничения на исследования. Это был яркий пример разумного подхода общества к оценке последствий научного прогресса.

По примеру биологов в феврале 2009 г. группа исследователей искусственного интеллекта и робототехников также встретилась в Асиломаре, чтобы обсудить развитие отрасли. Встречу созвал исследователь из Microsoft Эрик Хорвиц, президент Ассоциации развития искусственного интеллекта. В предыдущие пять лет предметом обсуждения у исследователей в этой области были два тревожных сигнала. Один поступил от Рэя Курцвейла, объявившего об относительно скором появлении компьютерного сверхинтеллекта. Основатель Sun Microsystems Билл Джой также рисовал мрачную картину развития искусственного интеллекта. Он опубликовал статью в журнале Wired, где детально описывал трио технологических угроз: робототехнику, генную инженерию и нанотехнологию. Джой полагал, что эти области исследований создают тройную угрозу выживанию человечества, и не видел очевидного решения.

Встретившиеся в Асиломаре исследователи искусственного интеллекта предпочли действовать менее осторожно, чем их предшественники биотехнологи. Группа светил в области компьютерной науки и робототехники, включая Себастьяна Труна, Эндрю Ына, Мануэлу Велосо и Орена Этциони, нынешнего директора Института исследований искусственного интеллекта Пола Аллена, в целом отвергла возможность появления сверхинтеллекта, который превзойдет людей, а также предположение, что искусственный интеллект может спонтанно возникнуть в интернете. Они согласились, что уже разрабатываются способные убивать автономные роботы, но их отчет, появившийся к концу 2009 г., оказался довольно спокойным. Искусственный интеллект еще не достиг того момента, когда он превращается в непосредственную угрозу.

«На встрече 1975 г. речь шла о моратории на исследования рекомбинантной ДНК. Контекст совещания американской Ассоциации развития искусственного интеллекта был совершенно иным. Эта область демонстрирует довольно успешное, устойчивое развитие, однако исследователи искусственного интеллекта открыто выражают разочарование прогрессом, недостаточно быстрым с учетом существующих надежд и ожиданий», — написали авторы итогового отчета о встрече.

Так или иначе пять лет спустя вопрос автономности машин возник снова. В 2013 г., когда Google приобрела специализировавшуюся на машинном обучении британскую фирму DeepMind, считалось, что робототехники очень близки к созданию полностью автономных роботов. Крошечный стартап продемонстрировал программу, которая играла в видеоигры порою лучше людей. Отчеты о приобретении сопровождались заявлением, что Google создает «совет по этике» из-за опасений по поводу потенциального использования технологии и возможных злоупотреблений.

Один из соучредителей DeepMind — Шейн Легг — признал, что технология в конечном итоге может иметь негативные последствия для человечества. «Думаю, что человечество исчезнет, и технология, скорее всего, сыграет в этом определенную роль». Для исследователя искусственного интеллекта, который только что получил сотни миллионов долларов, это была странная позиция. Если кто-то полагает, что технология может уничтожить человечество, то с какой целью он продолжает разрабатывать ее?

В конце 2014 г. встреча по искусственному интеллекту повторилась — новая группа исследователей, финансируемая одним из основателей Skype, собралась в Пуэрто-Рико, чтобы обсудить безопасность исследований. Несмотря на новую волну тревожных сигналов от таких светил, как Илон Маск и Стивен Хокинг, в открытом письме участников не было того призыва к действию, который прозвучал на встрече биотехнологов в Асиломаре в 1975 г.

Учитывая, что DeepMind была куплена Google, публичное философствование Легга приобретает особое значение. Сегодня Google — самый яркий пример потенциальных последствий развития ИИ и усиления интеллекта. Построенная на алгоритме, эффективно собирающем знания, а затем возвращающем их людям в процессе поиска информации, Google теперь занята созданием империи роботов. Компания может создать машины, которые заменят людей: водителей, работников служб доставки и сборщиков электроники. Пока неясно, останется ли она компанией «усиления интеллекта» или будет ориентироваться на ИИ.

И снова этические вопросы

Новую волну беспокойства по поводу потенциальной угрозы со стороны искусственного интеллекта и робототехники рождают этические проблемы, показанные в научно-фантастическом фильме «Бегущий по лезвию». В начале фильма детектив Декард встречается с Рэйчел, сотрудницей компании, производящей роботов (или репликантов), и спрашивает ее, дорого ли стоит «ночная бабочка». Она высказывает предположение, что он не понимает ценности работы компании. «Репликанты подобны любой другой машине, — отвечает Декард. — Они или благо, или опасность. Если они благо, это не моя забота».

Сколько пройдет времени, прежде чем интеллектуальные машины Google, основанные на технологиях от DeepMind и робототехнического подразделения Google, будут вызывать такие же вопросы? Мало какие фильмы оказали такой же культурный эффект, как «Бегущий по лезвию». Всего вышло семь его версий, одна из которых режиссерская, сейчас снимается сиквел. В нем рассказывается история отставного детектива из Лос-Анджелеса, которого в 2019 г. вызвали, чтобы выследить и уничтожить группу искусственно созданных существ, известных как репликанты. Репликанты предназначались для работы за пределами планеты, но незаконно вернулись на Землю, чтобы заставить своего создателя увеличить ограниченную продолжительность их жизни. Ставший современным «Волшебником Страны Оз», этот фильм отражает надежды и страхи технологически грамотного поколения.

От Железного Дровосека, который получает сердце и, таким образом, в определенной мере становится человеком, до репликантов, настолько превосходящих людей, что Декард получает приказ уничтожить их, отношение человечества к роботам превращается в определяющий вопрос эпохи.

Эти «интеллектуальные» машины никогда, возможно, не станут интеллектуальными в человеческом смысле или обладающими самосознанием. Дело не в этом. Искусственный интеллект быстро совершенствуется и приближается к уровню, когда он все в большей степени будет казаться интеллектом.

Вышедший в декабре 2013 г. фильм «Она» нашел широкий отклик в обществе, скорее всего, потому, что миллионы людей уже взаимодействуют с персональными помощниками, такими как Siri компании Apple. Взаимодействие, подобное показанному в фильме, стало обычным. По мере того как компьютеры уменьшаются в размерах и встраиваются в предметы повседневного пользования, мы ожидаем, что взаимодействие с ними будет разумным. Работая над Siri, пока проект был еще скрыт от общественного внимания, Том Грубер называл систему «интеллект в интерфейсе». Ему казалось, что он сумел соединить конкурирующие миры искусственного интеллекта и усиления интеллекта.

И в самом деле, появление программных интеллектуальных помощников вроде бы намекает на сближение таких несовместимых сообществ, как разработчики систем человекомашинного взаимодействия и исследователи искусственного интеллекта. Стоявший у истоков индустрии современных персональных компьютеров Алан Кей сказал, что, занимаясь компьютерными интерфейсами, он работал на будущее, которое наступит через 10–15 лет. Николас Негропонте, один из первых исследователей встроенных медиа, виртуальной реальности и речевых интерфейсов, работал на 25–30-летнюю перспективу. Как и Негропонте, Кей утверждает, что лучшие компьютерные интерфейсы — те, которые больше похожи на театр, а лучший театр настолько вовлекает публику в свой мир, что люди ощущают себя его частью. Этот подход напрямую ведет к интерактивным системам, которые будут функционировать скорее как интеллектуальные «коллеги», а не как компьютеризированные инструменты.

Как эти компьютерные аватары преобразуют общество? Люди уже сейчас тратят существенную часть времени бодрствования на взаимодействие через компьютеры друг с другом или с подобными человеку машинами в видеоиграх или в виртуальных системах от FAQbots до Siri. Мы используем поисковые системы даже в каждодневных разговорах друг с другом.

Машины уже выстраивают нашу повседневность

Станут ли эти интеллектуальные аватары нашими слугами, помощниками и коллегами или одновременно одним, другим и третьим? Или нас ждет более мрачный сценарий, при котором они превратятся в наших хозяев? Подход к роботам и искусственному интеллекту с точки зрения социальных взаимоотношений может в первый момент показаться абсурдным. Тем не менее, с учетом нашей склонности к очеловечиванию машин, мы наверняка будем вступать с ними в социальные отношения по мере повышения их автономности.

Это подводит нас к еще одной большой проблеме: риску уступить контроль над принятием повседневных решений все более сложным алгоритмам. Не так давно ветеран венчурного бизнеса Кремниевой долины Рэнди Комисар был на конференции и слушал выступление, описывавшее конкурента Siri — сервис Google Now. «Похоже, людям до смерти хочется, чтобы какой-то интеллект подсказывал им, что надо делать, — сказал он. — Что они должны есть, с кем должны встречаться, на какие вечеринки должны ходить».

На его взгляд, для сегодняшнего молодого поколения мир перевернулся вверх ногами. Вместо того чтобы использовать компьютеры для получения свободы и возможности мыслить масштабно, для установления близких отношений, для реализации своей индивидуальности и творческого потенциала, молодые люди настолько жаждут указаний, что готовы передать эту ответственность искусственному интеллекту в облаке.

Противоречие, присущее идеологиям искусственного интеллекта и усиления интеллекта, впервые поразило меня, когда я понял, что Энгельбарт и Маккарти занимались созданием компьютерных технологий с совершенно разными целями. В их подходах была и двойственность, и парадоксальность. И это понятно — если вы расширяете возможности человека с помощью компьютерной технологии, то неизбежно вытесняете людей. В то же время выбор той или иной стороны в споре — это вопрос этики, хотя его и нельзя рассматривать как выбор между черным и белым.

Конечно, у этих технологий есть пределы. Американский исследователь ИИ Терри Виноград говорит, что цели применения компьютерных технологий — расширение возможностей людей или их замена — зависят в большей мере от характера экономической системы, а не от свойств самих технологий. В капиталистической экономике, если технологии искусственного интеллекта смогут заменять белые воротнички и работников интеллектуального труда, то они неизбежно будут использоваться именно таким образом. Именно в этом состоит урок для так по-разному подходящих к системам будущего исследователей искусственного интеллекта, робототехников и программистов. Понятно, что предупреждение Билла Джоя («будущее не нуждается в нас») — это только один из возможных исходов. Не менее очевидно, что преобразованный этими технологиями мир не должен обернуться катастрофой.

На то, что началось для меня как парадокс, есть простой ответ. Устранение противоречия между искусственным интеллектом и усилением интеллекта зависит от решений людей — инженеров и ученых, которые осознанно выбрали антропоцентрический подход.

Это проблема нас как людей и мира, который мы создаем. Это не проблема машин.

Материалы по теме:

Коллекторы внедряют роботов для работы с должниками

Производитель роботов-уборщиков Roomba начнет продавать данные о домах пользователей

7 роботов, чей дизайн вдохновлен природой


Автоматизация приходит в офисную работу – но специалистам волноваться не стоит

Фото на обложке: smeljov/Depositphotos.


Комментарии

Комментарии могут оставлять только авторизованные пользователи.
Web Summit 2017
6 ноября 2017
Ещё события


Telegram канал @rusbase