Колонки

Лучше задуматься прямо сейчас: 10 этических проблем с ИИ, которые нам придется решать в будущем

Колонки
Юлия Гаврилова
Юлия Гаврилова

Head of Content в компании Serokell, студентка магистратуры Гендерных исследований Карлова университета

Дарья Мызникова

Сегодня мы во всем полагаемся на искусственный интеллект. Он помогает нам выбирать сериалы и принимать бизнес-решения. Искусственный интеллект отлично работает с большими объемами информации и помогает при оптимизации процессов, выявлении мошенничества, создании новых лекарств. Но во многих отношениях развитие ИИ — новый рубеж для этики и оценки рисков.

Какие проблемы не дают спать по ночам экспертам по ИИ? Разбираемся вместе с Юлией Гавриловой, Head of Content в компании Serokell

Лучше задуматься прямо сейчас: 10 этических проблем с ИИ, которые нам придется решать в будущем

10 этических проблем, связанных с ИИ

Мы не будем говорить о том, что создавать системы искусственного интеллекта сложно или дорого с технической точки зрения. Это тоже проблема, но другого порядка. 

Мы будем фокусироваться на этических вопросах в применении ИИ, то есть тех, что связаны с моралью и ответственностью. Ответить на них придется в ближайшее время. Всего пару дней назад в Microsoft заявили, что их ИИ превзошел человека в понимании логики текста. А компания NIO планирует скоро запустить собственный автономный автомобиль, который гораздо надежнее и доступнее Tesla. Это значит, что искусственный интеллект проникнет еще в большее количество сфер жизни, что несет важные последствия для всего человечества. 

Что будет, если ИИ заменит людей на рабочих местах

По ходу истории машины брали на себя все больше монотонных и опасных видов труда, а люди получили возможность перейти к труду умственному. 

Однако на этом все не закончилось. Если раньше креативность и сложные виды когнитивной активности как создание переводов, написание текстов, управление автомобилем, программирование были прерогативой человека, то современные алгоритмы GPT-3 и Autopilot меняют и это. 

Возьмем, например, медицину: врачи-онкологи учатся и практикуются десятилетиями, чтобы ставить точные диагнозы. Но машины уже научились делать это лучше. Что произойдет со специалистами, когда системы ИИ станут доступны в каждой больнице не только для постановки диагнозов, но и для проведения операций? Тот же сценарий может произойти с офисными работниками, да и с большинством других профессий в развитых странах.

Если компьютеры возьмут всю работу на себя, чем будем заниматься мы? Сможем ли мы найти смысл в нетрудовой деятельности, осваивая новые хобби и проводя больше времени с семьей? Большинство из нас не представляют свою жизнь без возможности трудиться и обеспечивать себя, поэтому адаптация обещает быть непростой. 

photo

Как создавать продукты, которые хотят все — по ссылке

Unsplash

Кто отвечает за ошибки ИИ

Представьте, что медицинское учреждение использовало систему искусственного интеллекта для диагностики рака и поставило пациенту ложноположительный диагноз. Или система по оценке криминальных рисков «помогла» сесть в тюрьму невиновному человеку. Кто виноват в этой ситуации?

Некоторые считают, что ответственность за ошибку всегда несет создатель системы. Тот, кто создал продукт, отвечает за последствия своего искусственного интеллекта. Когда самопилотируемый автомобиль Tesla во время испытаний сбил случайного пешехода, иск был оформлен на имя компании: не на человека-испытателя, сидевшего внутри, и, конечно, не на сам алгоритм. Но что, если программа создавалась десятками разных людей и еще докручивалась на стороне клиента? Можно ли тогда винить разработчика?

Сами разработчики утверждают, что эти системы слишком сложные и непредсказуемые, отказываясь от ответственности. Но это не решает проблему. В случае возникновения медицинской или судебной ошибки ответственность не может просто раствориться в воздухе. Будет ли и как искусственный интеллект отвечать за проблематичные и летальные случаи?

Как распределить богатство, созданное машинами

С помощью искусственного интеллекта компания может резко сократить использование человеческих ресурсов, а значит и расходы. Все богатства будут аккумулироваться в руках владельцев IT-стартапов.

Пока непонятно, как структурировать справедливую экономику в системе, где трудится ИИ. Заслуживает ли программа компенсации за труд? Звучит парадоксально, но если искусственный интеллект станет настолько развитым, что сможет выполнять любую работу не хуже человека, вполне возможно, что он будет заслуживать вознаграждение за свои услуги.

Как машины повлияют на наше поведение и социализацию

Боты и виртуальные ассистенты становятся все лучше и лучше в симуляции естественной речи. Уже довольно сложно отличить, происходит общение с реальным человеком или роботом, особенно в случае с чат-ботами. Многие компании уже предпочитают использовать алгоритмы для взаимодействия с клиентами: у «Тинькофф» есть Олег, у «Ростелеком» — VoiceBot

Это только начало эпохи, когда мы будем взаимодействовать с машинами, как если бы они были людьми. Специалисты колл-центров или техподдержки могут быть некомпетентными, грубыми или уставшими в конце рабочего дня. Их ресурсы в желании помочь клиенту и проявить внимание ограничены. Но боты могут направлять практически неограниченные ресурсы на построение отношений.

Пока большинство пользователей все еще предпочитает общаться с человеком, но 30% заявляют, что с чат-ботами им общаться проще. Скорее всего, по мере развития технологий это число будет расти. 

Как предотвратить ошибки ИИ

Искусственный интеллект учится на данных. Программист собирает и загружает в систему много примеров и показывает, что есть что. Именно так, например, учатся распознавать лица система FaceID. 

Примеров может быть десятки и сотни тысяч, но, очевидно, что этап обучения не может охватить все возможные ситуации в реальном мире. Программу можно обхитрить.

Например, случайный узор из точек может заставить машину «видеть» то, чего на самом деле на дороге нет. Глюк датчика или вирус может помешать авто заметить пешехода там, где человек легко бы сориентировался. Нужно провести не одну проверку, но и тогда мы не можем быть уверены на 100%, что машина работает так, как планировалось, и что злоумышленники не используют ее в своих целях.

Как устранить предвзятость ИИ

Хотя искусственный интеллект способен обрабатывать данные со скоростью и возможностями, намного превосходящими человеческие, он не отличается объективностью. Google является одним из лидеров в ИИ. Но оказалось, что их программное обеспечение для распознавания лиц имеет предубеждение против афроамериканцев, а переводчик считает, что женщин-историков и медбратьев не существует.

Не следует забывать, что системы искусственного интеллекта создаются людьми. А люди не бывают объективными. Они могут даже не замечать своих когнитивных искажений (на то они и когнитивные искажения). Их предубеждения против определенной расы или пола могут повлиять на то, как работает система. Когда системы глубокого обучения обучаются на открытых данных, никто не может контролировать, чему именно они научатся.

Когда бота от Microsoft запустили в Twitter, он стал расистом и сексистом менее, чем за сутки. Хотим ли мы создать ИИ, который скопирует наши недостатки и сможем ли мы ему доверять?

Как защитить ИИ от злоумышленников

Чем мощнее становится технология, тем шире возможности ее использования для плохих целей. Это относится не только к боевым роботам, но и к системам искусственного интеллекта, которые могут нанести ущерб при злонамеренном использовании. Поскольку войны сегодня ведутся не только на поле боя, кибербезопасность становится еще более важной.

Что делать с непредвиденными последствиями ИИ

Нам нужно беспокоиться не только о хакерах. Что, если сам искусственный интеллект обратится против нас? Это необязательно должно быть классическое восстание машин из американского блокбастера. Скорее, эдакий «джинн из бутылки», который исполняет все желания, но с ужасными непредвиденными последствиями.

В случае с машиной здесь вряд ли может быть злой умысел. Но программе сложно понять контекст желания. Попросите систему искусственного интеллекта искоренить бедность — вот вам формула, которая убивает всех на планете. Фактически задача выполнена. Предложенное средство очень эффективно, но работает немного не так, как нам бы хотелось.

photoUnsplash

Как удержать контроль над системой, которая умнее нас

Люди доминируют на планете Земля, несмотря на то, что они не самый крупный, не самый сильный и даже не самый быстрый вид. Человеческое превосходство почти полностью связано с нашей изобретательностью и интеллектом. 

Что если когда-нибудь ИИ будет иметь такое же преимущество над нами? Он будет предвидеть наши действия, так что просто вырубить систему не получится: компьютер будет защищаться. Как на нас отразится то, что мы больше не самый разумный вид на планете?

Как гуманно использовать ИИ

У нас нет опыта общения с другими видами, которые обладали бы интеллектом равным или схожим с человеческим. Однако даже с домашними животными мы стараемся выстраивать отношения так, чтобы они были основаны на любви и уважении. Например, дрессируя собаку, мы знаем, что улучшить результаты позволяет словесное или вкусное вознаграждение. А если пожурить питомца или, не дай бог, ударить, то он будет переживать боль и разочарование, как и человек. 

ИИ совершенствуется. Нам все проще относиться к «Алисе» или Siri, как к живым существам, ведь они нам отвечают и даже, кажется, демонстрируют эмоции. Можно ли считать, что система страдает, когда не справляется с поставленной задачей?

В игре Cyberpunk 2077 герой в определенный момент сталкивается со сложным выбором. Delamain — это разумный ИИ, который контролирует сеть такси. Вдруг из-за вируса или чего-то еще он распадается на множество личностей, которые бунтуют против своего отца. Игрок должен решить: откатить систему к первоначальной версии или позволить им быть? В какой момент мы можем рассмотреть удаление алгоритма как форму массового убийства?

Если мы рассматриваем машины как объекты, которые могут воспринимать, чувствовать и действовать, придется подумать об их правовом статусе. Следует ли обращаться с ними как с инструментами? Как с животными? Будем ли мы принимать во внимание эмоции «чувствительных» машин?

Вывод

Этика ИИ на сегодняшний день — это, скорее, про правильные вопросы, чем про правильные ответы. Мы не знаем, станет ли когда-нибудь искусственный интеллект равным или превосходящим человеческий. Но поскольку развивается он быстро и непредсказуемо, крайне безответственно было бы не задумываться над мерами, которые позволяют облегчить этот переход и снизить риск негативных последствий.

Обращая внимание на определенные сложности во внедрении ИИ в разные сферы, все же не стоит забывать, что технический прогресс — это более высокое качество жизни для всех. Искусственный интеллект обладает огромным потенциалом, но каждый из тех, кто работает над его созданием и распространением, должен нести ответственность за возможные ошибки и непредсказуемые последствия.


Фото на обложке: Shutterstock/Prostock-studio

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Три технологических тренда, которые изменят стратегии обработки данных в Юго-Восточной Азии
  2. 2 Пять способов использовать ИИ на благо общества
  3. 3 Бот, будь человеком: за какими трендами в развитии речевых технологий следить в 2021 году
AgroCode Hub
Последние новости, актуальные события и нетворкинг в AgroTech-комьюнити — AgroCode Hub
Присоединяйся!

ВОЗМОЖНОСТИ

02 декабря 2021

03 декабря 2021