К 2026 году данные для обучения языковых моделей ИИ могут быть исчерпаны — прогноз
Исследователям придется проявить изобретательность
Большие языковые модели — одна из самых популярных областей исследований ИИ. Все больше компаний разрабатывают программы, способные писать связные статьи и даже компьютерный код. Но, по мнению ряда специалистов, через несколько лет нас ждет проблема: данные для обучения моделей могут закончиться.
Языковые модели обучаются, используя тексты из таких источников, как «Википедия», книги, новостные и научные статьи. В последние годы наметилась тенденция обучать эти модели на все большем количестве данных, чтобы сделать их более точными и универсальными.
Проблема в том, что типы данных, обычно используемые для обучения языковых моделей, могут быть исчерпаны в ближайшем будущем — уже в 2026 году, согласно статье исследователей из Epoch, организации по исследованию и прогнозированию ИИ (еще не прошла рецензирование).
Проблема связана с тем фактом, что по мере того, как исследователи создают все более мощные модели с большими возможностями, им приходится находить все больше текстов для их обучения. Разработчики крупных языковых моделей все больше обеспокоены тем, что у них закончатся такого рода данные, говорит Тевен Ле Скао, исследователь ИИ-компании Hugging Face, который не участвовал в работе Epoch.
Читайте по теме:
Ученым все труднее объяснить, как работает ИИ. Почему это опасно?
Общение на языке данных — секретный ингредиент успешного развития бизнеса
Проблема частично связана с тем фактом, что исследователи языкового ИИ фильтруют данные, которые они используют для обучения моделей, по двум категориям: высокое качество и низкое качество. Грань между этими двумя категориями может быть нечеткой, говорит Пабло Вильялобос, штатный исследователь Epoch и ведущий автор статьи, но тексты из первой категории считаются написанными лучше и часто создаются профессиональными авторами.
К категории низкого качества относят сообщения в социальных сетях или комментарии на сайтах. По количеству они значительно превосходят высококачественные данные. Обычно модели обучаются только на высококачественных данных, чтобы они воспроизводили именно этот тип языка. Этот подход привел к некоторым впечатляющим результатам для таких больших языковых моделей, как GPT-3.
По словам Швабхи Сваямдипты, профессора машинного обучения Университета Южной Калифорнии, специализирующегося на качестве наборов данных, одним из способов преодолеть эти ограничения данных было бы переосмыслить понятия «низкого» и «высокого» качества. Он объясняет, что если нехватка данных подтолкнет исследователей использовать в обучении более разнообразные датасеты, это лишь пойдет на пользу языковым моделям.
Также можно найти способы продлить срок службы данных. В настоящее время большие языковые модели обучаются на одних и тех же данных только один раз из-за ограничений производительности и затрат. Но, возможно, удастся обучить модель несколько раз, используя одни и те же данные, считает Сваямдипта.
Некоторые исследователи полагают, что «больше не значит лучше» в любом случае не может быть лучше, когда речь заходит о языковых моделях. Перси Лян, профессор компьютерных наук в Стэнфордском университете, говорит, что есть доказательства того, что повышение эффективности моделей может сделать их лучше, а не больше.
«Мы видели, как модели меньшего размера, обученные на данных более высокого качества, могут превзойти более крупные модели, обученные на данных более низкого качества», — объясняет он.
Фото на обложке: Zapp2Photo /
-
Бизнес Екатерина Лапшина: «У меня всегда был чуть больший аппетит к риску» 07 мая 2026, 16:10
-
Технологии Александр Пьянов, «Яндекс Драйв»: «Мы готовы стать агрегатором для всего рынка каршеринга» 08 апреля 2026, 12:26
-
Личное Из фарцовщика в создателя дизайн-завода Flacon: как Николай Матушевский дважды бросал свой бизнес и начинал с нуля 05 мая 2026, 12:09
-
Личное «Успешным я стану, продав бизнес и уехав в Африку реабилитировать горилл». Интервью с ресторатором Денисом Бобковым 10 апреля 2026, 17:00
-
Бизнес Отказ от завода и ставка на интеллект: как Катерина Карпова реанимировала PURE LOVE 02 марта 2026, 11:45
-
Банки Ирина Лебедева, Т2: «Ключевой принцип — без неприятных сюрпризов» 25 марта 2026, 09:14
-
Бизнес Сергей Косинский: «Мне достался Франкенштейн, из которого попросили сделать нормального человека» 02 февраля 2026, 19:51
-
Бизнес Куда идут деньги инвесторов и почему российскому бизнесу стало сложнее их привлекать 12 мая 2026, 15:22
-
Бизнес Anthropic и OpenAI запретили вторичную торговлю акциями — неодобренные компаниями сделки признают недействительными 13 мая 2026, 21:05
-
Бизнес В России хотят создать «защитные зоны» вокруг дата-центров — строительство жилых домов на их территории ограничат 13 мая 2026, 20:30
-
Технологии «Моторика» запускает мобильные кабинеты протезирования — врачи смогут изготавливать изделия в отдалённых регионах 13 мая 2026, 20:11
-
Искусственный интеллект Российские ведомства планируют использовать для работы зарубежный ИИ: в топе по популярности — Qwen и модели Meta* 13 мая 2026, 19:50
-
Технологии «За памятником поверните направо»: в Яндекс Картах появились голосовые ИИ-подсказки по городским ориентирам 12 мая 2026, 11:55
-
Россия «Итальянские недели» возвращаются: «Вкусно — и точка» запустит новое тематическое меню с 28 мая 13 мая 2026, 17:20
-
Бизнес OpenAI обвинила Илона Маска в попытке использовать ресурсы компании — для строительства города на Марсе 07 мая 2026, 09:00
-
Тренды Гендерный разрыв зарплат в России достиг максимума за 13 лет — мужчины зарабатывают на 34% больше женщин 07 мая 2026, 15:00