Top.Mail.Ru

Стартап Ильи Суцкевера привлек $2 млрд на создание «безопасного сверхразума»

Новости
Новости
Екатерина Струкова
Екатерина Струкова

Новостной редактор

Екатерина Струкова
Стартап Safe Superintelligence Inc. (SSI) Ильи Суцкевера привлек $2 млрд на разработки и исследования, необходимые для создания «безопасного суперинтеллекта». Оценка компании после раунда выросла до $32 млрд. Об этом сообщило издание Financial Times.
Стартап Ильи Суцкевера привлек $2 млрд на создание «безопасного сверхразума»
  1. Новости

Венчурная компания Greenoaks вложила $500 млн и возглавила раунд. Среди инвесторов издание упомянуло Lightspeed Venture Partners и Andreessen Horowitz.

Стартап разрабатывает «безопасный суперинтеллект», у него не выручки и нет планов ее получить в ближайшие несколько лет.

«Сделка подчеркивает интерес инвесторов к AI-стартапам (в сфере искусственного интеллекта), за которыми стоят известные и талантливые исследователи, инженеры», — указало американское издание. В российском издании Data Secrets добавили, что компанию без продуктов, без анонсов и даже без нормального лендинга оценили в половину стоимости Anthropic, которая на рынке уже четыре года.

Cооснователь OpenAI Илья Суцкевер в мае 2024 года объявил об уходе из этой компании, а уже в июне запустил стартап SSI. Его партнерами стали бывший исследователь из OpenAI Дэниэл Леви и экс-глава отдела AI-разработок Apple и бывший партнер Y Combinator Дэниэл Гросс. Технические лаборатории и офисы были открыты в США и Израиле.

В сентябре 2024 года SSI привлек $1 млрд от NFDG, a16z, Sequoia, DST Global и SV Ange. На тот момент оценка компании составляла $5 млрд. Деньги были направлены на разработку безопасных систем искусственного интеллекта, кратно превосходящих человеческие возможности.

В феврале 2025 года Reuters сообщил о планах компании получить оценку в $20 млрд, а в ходе переговоров с инвесторами сумма выросла до $30 млрд.

RB.RU организует встречу проекта Founders’ Mondays для начинающих и опытных предпринимателей. Дважды в месяц по понедельникам.

Основная цель SSI — разработка безопасного и ответственного искусственного интеллекта, который будет не только высокоразвитым, но и полностью безопасным для людей. Компания использует принцип «мирного масштабирования» — приоритет в обеспечении безопасности AI до того, как его способности будут увеличены. SSI фокусируется на решении проблемы выравнивания AI (согласование целей AI с человеческими ценностями) и создании стандартов безопасности для всей отрасли. Суцкевер заявлял, что создание «безопасного сверхразума» — это важнейшая техническая проблема нашего времени.

Фото на обложке: Poetra.RH

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

ТЕГИ
RB в Telegram
Больше полезного контента в Telegram
Подписывайтесь!

Материалы по теме