Top.Mail.Ru
Новости / Искусственный интеллект

OpenAI распустила команду по защите от искусственного интеллекта

Она занималась рисками для человечества, связанными с развитием ИИ

Ахмед Садулаев
Текст:
20 мая 2024, 02:33

Уход из OpenAI главного научного сотрудника Ильи Суцкевера привел к роспуску команды, которая занималась долгосрочными рисками, связанными с развитием искусственного интеллекта. Группа, которая должна была защитить человечество от ИИ, проработала меньше года.

Как пишет CNBC со ссылкой на осведомленный источник, некоторые члены команды переводятся в другие подразделения внутри компании.

OpenAI объявила о создании команды Superalignment в июле прошлого года. В сообщении компании отмечалось, что подразделение в течение следующих четырех лет должно решить проблему управления ИИ-системами, «которые намного умнее нас».

«Но огромная сила сверхразума также может быть очень опасной и привести к лишению человечества возможностей или даже к его исчезновению», — говорилось в сообщении.

Разработчик ChatGPT планировал направить 20% имеющихся вычислительных ресурсов на работу с рисками, а возглавили команду по защите от рисков, связанных с ИИ, Илья Суцкевер и Ян Лейке.

Лейке также недавно объявил об уходе из OpenAI. Бывший топ-менеджер компании заявлял, что не разделяет взгляды руководства на приоритеты развития компании. По его мнению, OpenAI должна делать безопасность приоритетным направлением в разработке генеративного ИИ.

На этой неделе сооснователь OpenAI Илья Суцкевер написал в своем X-аккаунте, что покидает компанию после десяти лет работы. Место главного научного сотрудника займет Якуб Пачоцки, который ранее был директором по научным исследованиям.

Фото: Unsplash

Подписывайтесь на наш Telegram-канал
Материалы по теме