Истории

5 шагов по исправлению недостатков ИИ

Истории
Анна Полякова
Анна Полякова

Редактор

Вероника Елкина

Искусственный интеллект может использоваться в благих целях, например для удаления запрещенного контента из интернета или для более быстрого обнаружения наркотиков. Но в то же время у этой технологии есть и негативные проявления, например некорректные выводы о том, кому дать кредит, кого взять на работу или лишить ее и даже о том, кого отправить в тюрьму.

Издание Fast Company опросило политиков, бизнес-экспертов, ученых и активистов и сформулировало пять шагов по превращению ИИ в однозначно позитивное явление.

5 шагов по исправлению недостатков ИИ

1. Создать контролирующее ведомство

Алгоритмы воздействуют на наш мир мощными, но не всегда очевидными способами. Роботизированные системы еще не заменяют солдат, как в «Терминаторе», но вместо этого они медленно вытесняют бухгалтеров, чиновников, юристов и судей, которые принимают решения о выплатах и наказаниях. Несмотря на развитие, ИИ продолжает использовать детскую логику, основанную на предвзятых или неполных данных.

Тому есть множество подтверждений таких, как расследование ProPublica 2016 года, которое показало, что программное обеспечение для правоохранительных органов США переоценивало вероятность рецидива у чернокожих обвиняемых, что приводило к более суровым приговорам. В августе этого года отделение ACLU (American Civil Liberties Union, Американский союз защиты гражданских свобод) в Северной Калифорнии протестировало Rekognition, систему распознавания лиц от Amazon, на фотографиях членов законодательного собрания Калифорнии. Алгоритм ошибочно обнаружил 26 из 120 человек в полицейской базе из 25 тысяч снимков. Аналогичная ситуация произошла в прошлом году, когда ACLU проводил эксперимент с фотографиями законодателей федерального уровня.

Системы, принимающие решения такой степени важности, представляют наибольшую угрозу для общества и требуют тщательнейшего контроля.

«Я считаю, что у нас должно быть ведомство наподобие FDA (Food and Drug Administration, Управление по санитарному надзору за качеством пищевых продуктов и медикаментов), которое будет тестировать программы до их запуска в эксплуатацию», — говорит социолог из Гарварда Мутале Нконде.

Нконде воплощает эту идею в жизнь, помогая в создании закона об ответственности алгоритмов. Если его одобрят, то использующие ИИ компании будут обязаны доказывать, что их системы «точны, справедливы, непредвзяты, конфиденциальны и безопасны».

Делаешь InsurTech стартап? Заяви о себе на Speed Dating и найди инвестора своей мечты. Подай заявку до 23 октября

2. Доступно рассказать о работе ИИ

Получить простое объяснение работы ИИ — это не просто прихоть политиков, которые не разбираются в этой технологии, считает специалист по данным и правозащитник Джек Пулсон.

«На самом деле вам не нужны глубокие познания в этой области, чтобы получить представление о многих из ее проблем», — убежден он.

По мнению Пулсона, для понимания работы ИИ обществу необходим доступ ко всей системе — необработанным данным для машинного обучения, алгоритмам, которые их анализируют, и появляющимся моделям принятия решений. «Я думаю, что заявления о неспособности обычных людей разобраться в этом, в корне неверны», — говорит эксперт. Он отмечает, что тестирование Rekognition от Amazon, проведенное ACLU, хорошо демонстрирует возможность неспециалистов оценить работу ИИ.

Показать себя надежным поставщиком ИИ-систем с помощью разъяснений их работы пытается IBM. В августе этого года компания выпустила программное обеспечение с открытым исходным кодом, которое позволяет понять, как алгоритмы делают выбор. А годом ранее IBM представила решение, которое ищет ошибки в наборах данных для обучения ИИ-систем, определяющих кредитный рейтинг.

3. Ценить мнение человека выше вывода ИИ

Эксперты отмечают, что ИИ еще предстоит пройти долгий путь. Отчасти проблема состоит в том, что искусственный интеллект все еще не очень интеллектуален, говорит Майкл Селлитто, заместитель директора Института ИИ Стэнфордского университета.

«Если вы извлечете алгоритм из привычного для него контекста, то он быстро потерпит неудачу», — отмечает он.

Сюда же относится некорректная работа ИИ из-за обучения на предвзятых или неполных данных — или данных, которые не подготавливают систему к оценке нюансов. Конгрессмен Ро Ханна напомнил, что Twitter заблокировал аккаунт политика Митча Макконнелла за публикацию видео с «угрозами насилия». Но дело в том, что в ролике были показаны угрозы противников Макконелла, а сам он осуждал такое поведение, а не поощрял его.

Ханна убежден, что из-за ошибок ИИ окончательное решение всегда должен принимать человек. В случае с блокировкой Макконнелла «оказалось, что контекст имел значение», говорит он. (Однако до конца неясно, что стало причиной этой блокировки — мнение алгоритма, модератора-человека или и то, и другое).

Но выбор людей, принимающих решения, тоже имеет значение. Например, в экспертном совете Института ИИ Стэнфордского университета преобладают бывшие или нынешние главы ИИ-титанов из Кремниевой долины. Лидерам отрасли, сделавшим ставку на эту технологию, вероятно, будет трудно принимать справедливые решения, которые принесут пользу всем, а не только бизнесу.

Фото: Unsplash

4. Сделать конфиденциальность свойством по умолчанию

В основе многих из этих проблем лежит конфиденциальность — ценность, которой давно не хватает в Кремниевой долине. Девиз основателя Facebook Марка Цукерберга «двигайся быстрее и ломай вещи» — это фактически описание развития искусственного интеллекта, воплощенное в коллекции данных о клиентах самого Facebook. Часть претензий Федеральной торговой комиссии к соцсети, за которыми последовал штраф в $5 млрд, заключалась в том, что она недостаточно ясно сообщала пользователям об использовании технологии распознавания лиц в загруженных фотографиях. Сейчас владельцы аккаунтов по умолчанию не участвуют в этом процессе — для запуска распознавания нужно дать отдельное соглашение. И это должно быть стандартом для всей технологической индустрии.

«Нам нужна нормативно-правовая база с очень конкретными условиями использования данных», — подчеркивает Ханна.

В идеальном мире некоторые данные не должны собираться ни в коем случае, особенно без согласия людей. Нконде работает еще над одним законопроектом об искусственном интеллекте, который запрещает использовать распознавание лиц в сфере социального жилья. Берни Сандерс призвал отказаться от этой технологии в полиции. Калифорния готова принять закон, который прекратит распознавание лиц на записях с камер видеонаблюдения. Власти Сан-Франциско, Окленда и Сомервилля (штат Массачусетс) уже запретили подобные системы и, вероятно, их примеру последует все больше городов, хотя такие решения все еще остаются исключениями из правил.

Технологические компании часто утверждают, что должны обладать правом свободно использовать анонимные данные. Однако восстановить личную информацию из таких записей достаточно легко. Исследование ученых из Гарварда показало, что 87% американцев можно идентифицировать по уникальной комбинации даты рождения, пола и почтового индекса. А в 2018 году исследователи MIT деанонимизировали жителей Сингапура, проанализировав данные о поездках в общественном транспорте и вызовах с мобильных телефонов.

5. Конкурировать, не нарушая гражданские права

Вопрос конфиденциальности занимает центральное место в технологическом споре между Китаем и США. Упрощенный взгляд на машинное обучение звучит так: чем больше данных, тем точнее алгоритм. ИИ в Китае выигрывает от беспрепятственного сбора информации о 1,4 млрд жителей, поэтому кажется сомнительным, что страна с более строгими требованиями к конфиденциальности может с ним конкурировать.

Но преимущество Китая связано с грубыми нарушения прав человека, такими как слежка за уйгурами — национальным меньшинством, исповедующим ислам. Вездесущие камеры с распознаванием лиц позволяют отслеживать людей, а анализ их социальных отношений используется для оценки их опасности для государства.

По словам тайваньско-американского ИИ-эксперта и предпринимателя Кай-Фу Ли, который руководит китайской венчурной компанией Sinovation Ventures, китайцы отказываются от приватности гораздо проще, чем американцы.

«Люди в Китае с большей готовностью позволяют оцифровывать свои лица, голоса и выбор покупок», — пишет он в своей книге «Сверхдержавы искусственного интеллекта: Китай, Кремниевая долина и новый мировой порядок».

Это может измениться. Обширный сбор данных вирусным китайским приложением Zao вызвал негодование не только на Западе, но и в Китае, что вынудило Zao обновить свою политику.

Кроме того, страна с наибольшим количеством данных не выигрывает автоматически. «Это скорее гонка за человеческий капитал, чем за какой-либо конкретный источник данных», — говорит Селлитто из Стэнфордского Института ИИ. Хотя защита неприкосновенности частной жизни немного мешает сбору данных, зато она помогает привлекать таланты.

По данным исследования, проведенного Институтом Полсона, в США самая большая доля выдающихся исследователей ИИ, и большинство из них — иностранцы. Возможно, сильнее всего развитию ИИ в США мешает не массив данных Китая, а новая миграционная политика, которая затрудняет переезд одаренных разработчиков из других стран.

«В конечном счете, ценность гражданских свобод привлечет в США самых талантливых людей. Здесь возможна та свобода творчества и предпринимательства, которую не могут предложить авторитарные общества», — заключает Ханна.

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 ИИ способен записывать музыку, которую создает ваш мозг
  2. 2 AI-журналист, писатель и поэт: чьи тексты мы прочитаем в ближайшем будущем?
  3. 3 Кто вы по мнению ИИ? Об этом можно узнать на новой выставке фонда Prada
  4. 4 Может ли искусственный интеллект распознавать ложь?

Актуальные материалы —
в Telegram-канале @Rusbase

ПРОГРАММЫ И КУРСЫ

21 октября — 9 декабря 2019

Управление проектами

21 — 22 октября 2019

NIFI: Кластер Apache NiFi

22 октября 2019 — 22 января 2020

iOS разработчик с нуля до junior