Истории

Не бойтесь ИИ. Опасные роботы уже существуют

Истории
Елена Лиханова
Елена Лиханова

Старший редактор RB.RU

Елена Лиханова

Что общего у OpenAI и «Титаника»? Судостроительная компания Harland and Wolff, создавшая легендарный лайнер, лоббировала сокращение спасательных шлюпок. Похожим образом OpenAI убеждает законодателей в безопасности своей технологии.

Роботы десятилетиями причиняли ущерб людям. Зачем беспокоиться о появлении всемогущей программы, когда есть более насущные проблемы — автомобили Tesla с неисправным автопилотом или роботизированные заводские линии?

Не бойтесь ИИ. Опасные роботы уже существуют

В 1979 году робот на литейном заводе Ford Motor Company вышел из строя — рабочие-люди решили, что он работает недостаточно быстро. И вот 25-летнего Роберта Уильямса попросили залезть на стеллаж, чтобы помочь с перемещением вещей. Робот весом в тонну продолжал бесшумно работать, врезался в голову Уильямса и мгновенно убил его. Сообщается, что это был первый инцидент, в ходе которого робот убил человека.

В Kawasaki Heavy Industries в 1981 году Кэндзи Урада погиб при аналогичных обстоятельствах. Узнав о неисправности робота, он пошел его осмотреть, и был убит, встав на пути у машины, пишет Габриэль Халлеви в книге 2013 года When Robots Kill: Artificial Intelligence Under Criminal Law («Когда роботы убивают: искусственный интеллект под уголовным правом»).

Как объясняет автор, робот просто определил, что «наиболее эффективным способом устранить угрозу было подтолкнуть работника к соседней машине».

  • С 1992 по 2017 годы роботы на рабочих местах стали причиной 41 зарегистрированного случая смерти в Соединенных Штатах — и это, вероятно, заниженная цифра, особенно если учесть побочные эффекты автоматизации, такие как потеря работы.
  • Роботизированная зенитная пушка убила девять южноафриканских солдат в 2007 году, когда возможный сбой в программном обеспечении заставил машину резко развернуться и выпустить десятки смертоносных снарядов менее чем за секунду.
  • В ходе судебного разбирательства 2018 года медицинский робот был признан причастным к убийству Стивена Петтитта во время обычной операции, которая произошла несколькими годами ранее.

Итак, общая картина складывается. Роботы — как «умные», так и не очень, — десятилетиями убивают людей.  А развитие более совершенного ИИ только увеличило потенциал машин причинять вред. Самоуправляемые автомобили уже появились на американских улицах, а роботизированные «собаки» используются правоохранительными органами.


Читайте по теме:

Робопес от Boston Dynamics будет охранять Помпеи

Что безопаснее — беспилотный автомобиль или человек за рулем?


Компьютеризированные системы получают возможность использовать инструменты, позволяющие непосредственно воздействовать на физический мир. Зачем беспокоиться о теоретическом появлении всемогущей, сверхразумной программы, когда на пороге стоят более насущные проблемы?

Регулирование должно подталкивать компании к безопасным инновациям и инновациям в безопасности. Но до этого еще далеко.

Исторически сложилось так, что для стимулирования регулирования должны были произойти крупные катастрофы — те самые, которые в идеале должны были бы предвидеть и избегать в современной парадигме искусственного интеллекта.

  • Катастрофа на обувной фабрике Гровера в 1905 году привела к созданию правил, регулирующих безопасную эксплуатацию паровых котлов. Тогда считалось, что это слишком сложные механизмы, чтобы внедрять для них требования.
  • Пожар на фабрике Triangle Shirtwaist в 1911 году привел к введению норм в отношении спринклерных систем и аварийных выходов.
  • А потопление «Титаника» в 1912 году, которое возможно было предупредить, дало старт новым нормативам в отношении спасательных шлюпок, проверок безопасности и бортовых радиостанций.

Любое регулирование промышленных роботов будет брать начало в существующем промышленном регулировании, которое развивалось на протяжении многих десятилетий.

Но поскольку технологии продолжают меняться, правительству необходимо более четко регулировать, как и когда роботы могут использоваться в обществе. Законы должны разъяснять, кто несет ответственность и каковы юридические последствия, когда действия робота приводят к причинению вреда.

Да, несчастные случаи случаются. Но уроки авиационной безопасности и охраны труда демонстрируют, что несчастные случаи можно предотвратить, если они открыто обсуждаются и подвергаются надлежащей экспертной проверке.

Впрочем, разработчики ИИ и робототехники выступают против. Например, OpenAI, как сообщается, боролась за «смягчение» правил безопасности и снижение требований к качеству искусственного интеллекта.

Сообщается, что компания лоббировала чиновников ЕС против классификации моделей, подобных ChatGPT, как «высокорисковых», что повлекло бы за собой «строгие юридические требования, включая прозрачность, прослеживаемость и человеческий надзор». Предположительно, причина заключалась в том, что OpenAI не намеревалась использовать свою продукцию в условиях повышенного риска.

Таким же образом владельцы «Титаника» добивались того, что судно не следует проверять на наличие спасательных шлюпок, исходя из принципа, что это судно «общего назначения», которое также может плавать в теплых водах, где нет айсбергов и люди смогли бы провести в воде несколько дней.

Сегодняшние смерти из-за роботов с ИИ ничем не отличаются от несчастных случаев с роботами прошлого. Эти промышленные роботы вышли из строя, и люди-операторы, пытавшиеся оказать помощь, были убиты неожиданным образом.

С момента первой известной смерти в результате этой функции в январе 2016 года автопилот Tesla, согласно официальным отчетам, был причастен к более чем 40 смертям. Неисправные Tesla на автопилоте отклоняются от заявленных возможностей, неправильно считывая дорожную разметку, внезапно врезаясь в другие автомобили или деревья, врезаясь в хорошо обозначенные служебные автомобили или игнорируя красный свет, знаки остановки и пешеходные переходы.

Поскольку мы движемся в будущее, где роботы становятся неотъемлемой частью нашей жизни, мы не можем забывать, что безопасность является важнейшей частью инноваций.

Источник.

Обложка снегерирована нейросетью Midjourney

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Все, что вы хотели знать про судьбоносный для Generative AI судебный иск
  2. 2 Что будет с поисковыми системами через 5 лет и как seo-специалистам справиться с переменами
  3. 3 Искусственный интеллект vs SEO: кто кого?
  4. 4 Нейросеть ChatGPT: новый бесплатный чат-бот с искусственным интеллектом
  5. 5 Как выглядит транспорт будущего в кино
AgroCode Hub
Последние новости, актуальные события и нетворкинг в AgroTech-комьюнити — AgroCode Hub
Присоединяйся!