Раньше было модно пророчить будущее, где искусственный интеллект превзойдет человека и захватит мир. Однако прошлый год показал, что эта технология несет в себе куда более реальные угрозы. Своими прогнозами поделились Уилл Найт и Карен Хао из MIT Technology Review.
Саморазбивающиеся автомобили
После того, как в марте беспилотный автомобиль Uber сбил насмерть пешехода, следование выяснило, что ошибку можно было легко предотвратить.
Автопроизводители вроде Ford и General Motors, новички вроде Uber и куча разных стартапов торопятся коммерциализировать технологию, которая несмотря на свою незрелость, уже привлекла миллиарды долларов инвестиций. Waymo добилась наибольшего прогресса — в прошлом году она запустила в Аризоне первый сервис беспилотного такси. Но даже технологии Waymo ограничены и беспилотные автомобили не могут ездить где угодно и при любых условиях.
Чего ждать в 2019 году: Законодательные органы США и других стран пока закрывают глаза на эти проблему, боясь помешать инновациям. Администрация безопасности дорожного движения США даже сообщила, что существующие правила безопасности можно ослабить в отношении беспилотных автомобилей. Но пешеходы и водители обычных автомобилей не давали согласия, чтобы на них тестировали технологии. Еще одна серьезная авария с участием беспилотников в 2019 году — и возможно, отношение властей изменится.
Боты, вмешивающиеся в политику
В марте прошлого года прогремел скандал с компанией Cambridge Analytica, которая использовала уязвимость в технологии обмена данными Facebook для вмешательства в президентские выборы в США. Вызванный этим событием резонанс показал, что алгоритмы способны распространять дезинформацию в обществе.
Во время выступления перед Конгрессом США Марк Цукерберг пообещал, что искусственный интеллект научится находить и блокировать вредоносный контент, хотя технология еще не умеет полноценно понимать знание текстов, изображений или видео.
Чего ждать в 2019 году: обещание Цукерберга будет проверено во время выборов в двух крупнейших странах Африки — Южной Африки и Нигерии. Кроме того, уже началась подготовка к выборам в США в 2020 году, а значит появится больше технологий с использованием ИИ для распространения дезинформации, включая чат-ботов.
Фото: Unsplash
Миротворческие алгоритмы
В прошлом году сотрудники Google узнали, что их работодатель поставляет технологии распознавания изображений для дронов армии США. Работники испугались, что они на пути к разработке смертельно опасных боевых дронов. В итоге компания отказалась от проекта Maven и создала этические нормы и правила ИИ.
Крупные игроки индустрии и выдающиеся ученые поддержали инициативу о запрете использования автономного оружия. Использование ИИ в военных целях набирает обороты, однако другие известные компания вроде Microsoft и Amazon в этом не участвуют.
Чего ждать в 2019 году: Хоть Пентагон тратит огромные средства на ИИ-проекты, активисты надеются, что в этом году ООН примет предварительный закон о запрете автономного оружия.
Наблюдение высшего уровня
Способность ИИ распознавать лица с невероятной точностью привела к тому, что в некоторых странах технологии наблюдения начали внедряться со стремительной скоростью.
Распознавание лиц позволяет вам разблокировать свой смартфон, а алгоритмам автоматически отмечать вас на фотографиях. Однако борцы за гражданские права считают, что технология может привести к антиутопии, поскольку способна серьезно вмешаться в частную жизнь и допустить предвзятость к определенным группам людей из-за ошибок во время обучения алгоритмов.
В некоторых странах — и в особенности в Китае — технология распознавания лиц используется полицией и властями для наблюдения за гражданами. Amazon продает эту технологию органам США, занимающимся вопросами иммиграционной политики.
Чего ждать в 2019 году: технология распознавания лиц будет использоваться в автомобилях и веб-камерах. Будет определяться не только ваша личность, но и эмоции, которые вы выражаете. Но возможно в этом году выйдет закон, ограничивающий использование подобной технологии.
Безумие дипфейков
В прошлом году огромную популярность обрели фейковые порноролики с наложенными лицами знаменитостей. Такое видео называют deepfake и они создаются с помощью генеративно-состязательной сети или GAN.
Nvidia недавно показала, что GAN может сгенерировать фотореалистичное изображение лица человека любой расы, пола и возраста.
Чего ждать в 2019 году: все больше людей будет одурачено дипфейками. Однако DARPA собирается протестировать новые методы выявления фейковых видео. Однако, учитывая, что ее алгоритмы тоже используют ИИ это будет, скорее, игра в кошки-мышки.
Материалы по теме:
Добро пожаловать в прекрасный и пугающий мир нейросетей
Как фильтры видеочатов и ИИ-макияж меняют наше представление о красоте
Управление человеческими эмоциями с помощью технологий может навсегда изменить общение
Человек нам не ровня: девять главных роботов-убийц в истории кинематографа
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter