Алексей Зеньков

Финансируемый Илоном Маском стартап создает «полицию искусственного интеллекта»

OpenAI – стартап, который получает финансирование от Илона Маска и планирует предоставлять результаты своих исследований в открытый доступ. Также создатели компании хотят, чтобы ИИ не использовался для незаконных целей, поэтому они решили создать новый вид полиции – полицию искусственного интеллекта.


Пока лучшие специалисты компании работают над тем, чтобы ускорить распространение технологий ИИ, в этом не самом обычном стартапе переживают, что эти технологии могут зайти слишком далеко – например, кто-нибудь втайне от всех совершит прорыв и станет использовать технологию в «потенциально вредоносных целях». Поэтому компания предлагает другим специалистам присоединиться и создавать технологии, позволяющие обнаруживать случаи незаконного применения ИИ в реальном мире.

Основатели компании уверены, что ИИ может сделать мир лучше, но в то же время они переживают, что новые технологии могут нанести серьезный вред.

«По мере того, как системы ИИ становятся все мощнее, их будут применять во все более разнообразных целях, и некоторые из них будут менее законопослушными, чем другие, — сказал Грег Брокман, бывший технический директор финтех-стартапа Stripe и нынешний руководитель OpenAI. — Чем больше мир будет знать о том, что происходит, чем тщательнее будет производиться надзор, тем лучше».

Иллюстрация: Getty Images

Парадокс открытости

Генеральный директор Tesla и президент Y Combinator Сэм Альтман основали OpenAI вместе с несколькими выдающимися специалистами в отрасли, часть из которых перешли в компанию из Google и Facebook. Их целью было одновременно и ускорить прогресс в области ИИ, и защитить мир от ускоряющегося прогресса в области ИИ. На презентации компании в декабре прошлого года Маск и Альтман заявили, что бесплатно предоставят открытый доступ к своим разработкам всем желающим и что эта мера позволит предотвратить неправильное использование искусственного интеллекта.

В таком подходе на самом деле больше логики, чем кажется. По мнению Маска и Альтмана, если открыть доступ к ИИ для всех, то большее количество людей сможет противостоять действиям мошенников. Главная мысль состоит в том, что у нас будут необходимые силы, чтобы помешать нежелательным действиям со стороны кода, и развитие технологий ИИ не будет прерогативой одной или пары крупных компаний. Хотя использовать этот подход можно не безгранично – нельзя открыть доступ абсолютно ко всему, иначе это попадет не в те руки – многие считают, что OpenAI может выступить в качестве противовеса корпорациям вроде Google или Facebook и снизить «риск того, что возможности сверхинтеллекта будут монополизированы», как выражается теоретик ИИ Ник Бостром. Открытый доступ к ИИ, говорил Бостром, «станет еще одним аргументом против появления у одной организации или группы существенно более мощного ИИ, чем у других».

Решение о наборе «полиции ИИ» показывает, что эту философию начинают реализовывать на практике. В OpenAI не хотят просто создать еще одну систему ИИ и поделиться ею со всем миром. В компании хотят активно отслеживать мошенников. В конце прошлой недели на сайте стартапа появилось объявление о наборе в полицию ИИ – то есть в OpenAI хотят определиться, как эта система будет работать.

Компания уже наметила несколько направлений исследований.

Один из вариантов – вплотную заняться финансовыми рынками, онлайн-играми и новостными сервисами – сферами, где ИИ уже вовсю используют. Контролируя эти сферы с помощью более традиционных методов исследования – например, разработав системы ИИ для мониторинга других ИИ – полицейские смогли бы видеть, как далеко продвинулись технологии в реальном мире и не приносят ли они вред. К примеру, Иэн Гудфеллоу, который недавно перешел в OpenAI из Google, подозревает, что финансовые организации уже применяют секретные приемы, чтобы обманывать системы ИИ, используемые конкурентами, что позволяет им увеличивать прибыль.

Тем временем Брокман переживает об эволюции новостных сервисов. «Представьте, что кто-то захочет манипулировать общественным мнением через социальные сети. Чем мощнее становятся автоматизированные системы, тем больше возможностей появляется в этом плане», — предостерегает он. Брокман вспоминает недавнее обсуждение секретных алгоритмов Facebook, которые могли влиять на то, что отображалось в новостной ленте пользователей. «Было бы хорошо начать с изучения таких систем – тех, что уже существуют». Брокман признает, что обнаруживать нежелательное поведение сложно, но именно поэтому OpenAI приглашает специалистов начать изучение этой темы. «Важно думать о том, что нас ждет, и о проблемах, с которыми мы столкнемся», — говорит он.

В то же время Брокман с коллегами призывают исследователей браться за новые проекты с более позитивным настроем. Как во многих других компаниях, в OpenAI хотят создать ИИ, который смог бы самостоятельно следить за компьютерной безопасностью. Также они хотят создать ИИ, который смог бы выиграть конкурс по программированию, примерно как Google с их системой, победившей человека в игру го. «Программа, способная писать другие программы, была бы очень полезна», — говорят в компании.

Трудно с этим спорить. Но также эта программа может быть очень опасной. В OpenAI стремятся найти баланс между общедоступностью систем с такими возможностями и уверенностью в том, что они не будут использоваться во вред.

Источник


Материалы по теме:

В Google научили искусственный интеллект экономить электричество

Китаец победил искусственный интеллект в конкурсе по распознаванию лиц

В Facebook решили создать искусственный интеллект, который будет создавать искусственный интеллект

Через 20 лет ваш компьютер может стать причиной мирового кризиса

Видео по теме:


comments powered by Disqus

Подпишитесь на рассылку RUSBASE

Мы будем вам писать только тогда, когда это действительно очень важно