Уход из OpenAI главного научного сотрудника Ильи Суцкевера привел к роспуску команды, которая занималась долгосрочными рисками, связанными с развитием искусственного интеллекта. Группа, которая должна была защитить человечество от ИИ, проработала меньше года.
Как пишет CNBC со ссылкой на осведомленный источник, некоторые члены команды переводятся в другие подразделения внутри компании.
OpenAI объявила о создании команды Superalignment в июле прошлого года. В сообщении компании отмечалось, что подразделение в течение следующих четырех лет должно решить проблему управления ИИ-системами, «которые намного умнее нас».
«Но огромная сила сверхразума также может быть очень опасной и привести к лишению человечества возможностей или даже к его исчезновению», — говорилось в сообщении.
Разработчик ChatGPT планировал направить 20% имеющихся вычислительных ресурсов на работу с рисками, а возглавили команду по защите от рисков, связанных с ИИ, Илья Суцкевер и Ян Лейке.
Лейке также недавно объявил об уходе из OpenAI. Бывший топ-менеджер компании заявлял, что не разделяет взгляды руководства на приоритеты развития компании. По его мнению, OpenAI должна делать безопасность приоритетным направлением в разработке генеративного ИИ.
На этой неделе сооснователь OpenAI Илья Суцкевер написал в своем X-аккаунте, что покидает компанию после десяти лет работы. Место главного научного сотрудника займет Якуб Пачоцки, который ранее был директором по научным исследованиям.
Фото: Unsplash
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Подбор и адаптация сотрудников»
- 1 Бесплатная версия ChatGPT обзаведется новейшей разработкой OpenAI — моделью o3-mini
- 2 В работе ChatGPT произошел глобальный сбой 23 января
- 3 Маск раскритиковал объявленный Трампом ИИ-проект стоимостью $500 млрд
- 4 OpenaAI, Oracle и Softbank объявили о совместном ИИ-проекте на $500 млрд
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025