К 2026 году данные для обучения языковых моделей ИИ могут быть исчерпаны — прогноз
Исследователям придется проявить изобретательность
Большие языковые модели — одна из самых популярных областей исследований ИИ. Все больше компаний разрабатывают программы, способные писать связные статьи и даже компьютерный код. Но, по мнению ряда специалистов, через несколько лет нас ждет проблема: данные для обучения моделей могут закончиться.
Языковые модели обучаются, используя тексты из таких источников, как «Википедия», книги, новостные и научные статьи. В последние годы наметилась тенденция обучать эти модели на все большем количестве данных, чтобы сделать их более точными и универсальными.
Проблема в том, что типы данных, обычно используемые для обучения языковых моделей, могут быть исчерпаны в ближайшем будущем — уже в 2026 году, согласно статье исследователей из Epoch, организации по исследованию и прогнозированию ИИ (еще не прошла рецензирование).
Проблема связана с тем фактом, что по мере того, как исследователи создают все более мощные модели с большими возможностями, им приходится находить все больше текстов для их обучения. Разработчики крупных языковых моделей все больше обеспокоены тем, что у них закончатся такого рода данные, говорит Тевен Ле Скао, исследователь ИИ-компании Hugging Face, который не участвовал в работе Epoch.
Читайте по теме:
Ученым все труднее объяснить, как работает ИИ. Почему это опасно?
Общение на языке данных — секретный ингредиент успешного развития бизнеса
Проблема частично связана с тем фактом, что исследователи языкового ИИ фильтруют данные, которые они используют для обучения моделей, по двум категориям: высокое качество и низкое качество. Грань между этими двумя категориями может быть нечеткой, говорит Пабло Вильялобос, штатный исследователь Epoch и ведущий автор статьи, но тексты из первой категории считаются написанными лучше и часто создаются профессиональными авторами.
К категории низкого качества относят сообщения в социальных сетях или комментарии на сайтах. По количеству они значительно превосходят высококачественные данные. Обычно модели обучаются только на высококачественных данных, чтобы они воспроизводили именно этот тип языка. Этот подход привел к некоторым впечатляющим результатам для таких больших языковых моделей, как GPT-3.
По словам Швабхи Сваямдипты, профессора машинного обучения Университета Южной Калифорнии, специализирующегося на качестве наборов данных, одним из способов преодолеть эти ограничения данных было бы переосмыслить понятия «низкого» и «высокого» качества. Он объясняет, что если нехватка данных подтолкнет исследователей использовать в обучении более разнообразные датасеты, это лишь пойдет на пользу языковым моделям.
Также можно найти способы продлить срок службы данных. В настоящее время большие языковые модели обучаются на одних и тех же данных только один раз из-за ограничений производительности и затрат. Но, возможно, удастся обучить модель несколько раз, используя одни и те же данные, считает Сваямдипта.
Некоторые исследователи полагают, что «больше не значит лучше» в любом случае не может быть лучше, когда речь заходит о языковых моделях. Перси Лян, профессор компьютерных наук в Стэнфордском университете, говорит, что есть доказательства того, что повышение эффективности моделей может сделать их лучше, а не больше.
«Мы видели, как модели меньшего размера, обученные на данных более высокого качества, могут превзойти более крупные модели, обученные на данных более низкого качества», — объясняет он.
Фото на обложке: Zapp2Photo /
-
Технологии Александр Пьянов, «Яндекс Драйв»: «Мы готовы стать агрегатором для всего рынка каршеринга» 08 апреля 2026, 12:26
-
Личное «Успешным я стану, продав бизнес и уехав в Африку реабилитировать горилл». Интервью с ресторатором Денисом Бобковым 10 апреля 2026, 17:00
-
Банки Ирина Лебедева, Т2: «Ключевой принцип — без неприятных сюрпризов» 25 марта 2026, 09:14
-
Искусственный интеллект «Идея „ИИ всех заменит“ похожа на мыльный пузырь». Прогноз на 2026 год от специалиста по будущему 24 декабря 2025, 11:29
-
Бизнес Отказ от завода и ставка на интеллект: как Катерина Карпова реанимировала PURE LOVE 02 марта 2026, 11:45
-
Бизнес Анна Симакова: «В кризис выживают крупные структуры» 20 февраля 2026, 10:06
-
Бизнес «Точно розовый?»: как Eburet из табурета-трансформера вырос в B2B-бренд, который заходит на рынок в 50 млрд ₽ 11 февраля 2026, 19:48
-
Бизнес Сергей Косинский: «Мне достался Франкенштейн, из которого попросили сделать нормального человека» 02 февраля 2026, 19:51
-
Искусственный интеллект 74% компаний готовы адаптировать контент под ответы ИИ: треть уже привлекает пользователей через выдачу нейросетей 16 апреля 2026, 20:30
-
Искусственный интеллект TIME назвал 100 самых влиятельных людей 2026 года: в списке — Алиса Лью, Мистер Бист и Папа Римский Лев XIV 16 апреля 2026, 20:15
-
Искусственный интеллект Инвесторы оценили Anthropic в $800 млрд перед новым раундом финансирования — создатель ИИ Claude готовится к IPO 16 апреля 2026, 20:00
-
Искусственный интеллект Названы самые популярные нейросети в России в 2026-м: в топе — Chat GPT, Claude Opus и Nano Banana 16 апреля 2026, 16:30
-
Бизнес Uber инвестирует $10 млрд в развитие роботакси — компания будет прямым конкурентом Tesla Илона Маска 16 апреля 2026, 14:40
-
Технологии Разработчик роботов Айдол выходит на рынок Японии — производитель заключил договор с местной компанией на $250 тыс. 16 апреля 2026, 12:38
-
Россия В работе «Ростелекома» произошёл масштабный сбой из-за DDoS-атаки — пользователи жалуются на проблемы с интернетом 06 апреля 2026, 23:59