Для бизнеса российские нейросети оказались дороже зарубежных: разница между GigaChat PRO и DeepSeek — в 200 раз

Российские нейросети оказались в 200 раз дороже зарубежных

Анастасия Москаль
Текст:
01 декабря 2025, 13:00
Для бизнеса российские нейросети оказались дороже зарубежных: разница между GigaChat PRO и DeepSeek — в 200 раз
Фото: Maxiphoto / Getty Images

Стоимость использования нейросетей в рабочих задачах в России оказалась в десятки и сотни раз выше, чем при работе с зарубежными моделями, говорится в исследовании Nodul. Эксперты подтверждают, что бизнесу сейчас выгоднее китайские и опенсорс-решения. Однако в Yandex AI Studio указывают, что разработчики уже снижают стоимость российских моделей за счёт новой тарификации и оптимизации токенизации.

Разница в цене использования нейросетей достигает 208 раз

Российская платформа для создания ИИ-агентов и автоматизации бизнес-процессов Nodul сравнила стоимость девяти типовых задач: перевод текста на 1000 знаков, копирайтинг на 10 тыс. знаков, обработка обращений поддержки, создание шаблонных документов, работа секретаря, задачи SDR (по поиску потенциальных клиентов), анализ резюме, сводные отчёты, аналитика.

В каждом сценарии рассчитывалась нагрузка в токенах (цифровая единица учёта) — как на вводе, так и на выводе — и стоимость выполнения задачи по тарифам моделей. В исследование вошли YandexGPT Lite/Pro, GigaChat Lite/Pro, а также зарубежные модели: DeepSeek, GPT-mini, GPT-5 и Claude Sonnet.

По итогам исследования выяснилось, что GigaChat PRO — самый дорогой вариант. DeepSeek — самый экономичный.

  • копирайтинг: GigaChat PRO — 154,5 ₽ против 0,74 ₽ у DeepSeek (разница в 208 раз);

  • оператор поддержки: 15,8 ₽ против 0,08 ₽ (204 раза);

  • документооборот: 22,5 ₽ против 0,14 ₽ (160 раз);

  • перевод: 1,6 ₽ против 0,009 ₽ (161 раз);

  • анализ резюме: 2,7 ₽ против 0,01 ₽ (184 раза);

  • обработка лида: 2,25 ₽ против 0,01 ₽ (160 раз).

Российские модели — это дообученные версии мировых нейросетей

Исследование подчёркивает: под «российскими» LLM чаще понимаются не модели, созданные с нуля, а адаптации LLaMA, Qwen, Mistral и других решений. Разработчики дообучают их на локальных данных и размещают в российских дата-центрах.

Главная причина высокой себестоимости — инфраструктура. Из-за ограничений на современные процессоры (GPU оборудование) закупают через посредников с наценкой. Использование зарубежных облаков затруднено из-за запрета передачи персональных данных. Поэтому провайдерам приходится поддерживать собственные дата-центры: сервер для обслуживания 1000 пользователей стоит около 55 млн рублей, без учёта электроэнергии и обслуживания.

«На практике российским компаниям сейчас выгоднее всего либо использовать модели китайских разработчиков (Alibaba, DeepSeek, Kimi, Z. ai) через API, либо разворачивать их (или американского бигтеха) опенсорс-версии в своей инфраструктуре», — подтверждает выводы исследования Nodul источник Russian Business в крупной IT-компании.

GPT-модели подешевели в десятки раз за два года

По данным Nodul, российские провайдеры часто устанавливают одинаковую стоимость входящих и исходящих токенов, тогда как у зарубежных генерация ответа стоит дороже ввода. В сценариях с длинными промптами и короткими ответами — типичных для ИИ-агентов — это приводит к кратному росту стоимости.

Руководитель платформы Yandex AI Studio Артур Самигуллин пояснил, что цена использования модели зависит от стоимости ML-инфраструктуры (оборудование и программные ресурсы, на которых работают нейросети) и её загрузки. Чем выше спрос, тем ниже себестоимость токена.

Артур Самигуллин привёл пример:

  • в 2023 году GPT-4 32k стоила $60 (около 4 тыс. ₽ по курсу на 1 декабря 2025-го) за миллион токенов на вход.

  • в 2025 году GPT-5.1 ― $1,25 (около 97 ₽).

«Модели Яндекса постепенно проходят тот же путь — YandexGPT 5.1 Pro уже стала втрое дешевле предыдущей модели», — подчеркнул руководитель платформы Yandex AI Studio Артур Самигуллин.

Также он отметил, что исследование Nodul проводилось на устаревшей версии YandexGPT.

Как российским компаниям оптимально использовать нейросети

По словам источника Russian Business в крупной IT-компании, для масштабных бизнесов самым экономичным вариантом остаётся развёртывание китайских или американских опенсорс-моделей на своей инфраструктуре.

Также затраты можно уменьшить, если использовать массовые потребительские GPU, которые подходят для многих прикладных задач и стоят значительно дешевле специализированных решений.

Руководитель платформы Yandex AI Studio Артур Самигуллин отметил, что российские нейросети предпринимаются шаги к снижению стоимости за использование. На примере Alice AI LLM можно увидеть, как компания добилась удешевления: цена за ввод и вывод текста разделена, а улучшенная токенизация русского языка позволяет использовать модель в 1,5–2 раза дешевле опенсорс-решений.

Подписывайтесь на наш Telegram-канал
Материалы по теме