Top.Mail.Ru
Новости / Искусственный интеллект

ИИ будет видно: в России появится сервис маркировки нейроконтента

Без единого стандарта маркировка ИИ-контента бессмысленна

Никита Стаценко
Текст: Никита Стаценко
07 августа 2025, 17:19
Алина Бавина

«Яндекс» и Институт системного программирования РАН разрабатывают сервис для маркировки и распознавания ИИ-контента: фото, видео и аудио, сгенерированных нейросетями. Источники «Ведомостей» утверждают, что основа технологии — микроскопический артефакт, который невозможно заметить невооружённым глазом. Детектор сможет «узнавать» нейросетевые изображения — и, возможно, стандартизирует всю индустрию.

ИИ будет видно: в России появится сервис маркировки нейроконтента
  1. Новости

Метка вне поля зрения

Речь идёт не о привычных водяных знаках — их можно обрезать. В этой системе «Шедеврум» от «Яндекса» встраивает метку в само изображение, незаметную пользователю, но считываемую алгоритмом.

Компания создаёт и распознающий сервис: пользователи смогут проверить, был ли контент сгенерирован ИИ. По данным источников, технология может быть выложена в open source — но для масштабного внедрения нужен единый отраслевой стандарт.

«Мы постоянно работаем над инициативами по защите пользователей от мошенников и ответственно подходим к развитию ИИ. Например, поддерживаем научные разработки ИСП РАН по созданию отраслевого стандарта по распознаванию ИИ-контента. Универсальные технологии отрасль сможет самостоятельно внедрять в интересах пользователей. Мы также планируем внедрять такие инструменты в наши сервисы», — заявили в «Яндексе».

Сроки готовности разработки в компании не уточняют.


Уязвимые зоны — реклама и маркетинг

Генеральный директор VisionLabs Дмитрий Марков считает, что особое внимание нужно уделить визуальному и рекламному контенту, где на кону доверие потребителя — изображения товаров, маркетинговые ролики, презентации и отзывы. Именно эти форматы чаще всего влияют на выбор пользователя и могут быть использованы манипулятивно.

«Это особенно важно для изображений товаров, демонстрационных видео и отзывов, где правдивость информации напрямую влияет на потребительский выбор. Маркировку необходимо делать явно заметной, с хорошо читаемым текстом и размещать её так, чтобы пользователь видел её до начала каких-либо действий», — подчеркивает эксперт.

Граница между ИИ и человеком размыта

Одна из главных проблем — отсутствие чётких критериев определения участия ИИ в создании контента. Автоматическое выявление нейросетевого следа сталкивается с методологическими ограничениями. Например, при работе с текстами используется анализ предсказуемости и вариативности, но даже он не даёт точного ответа, где заканчивается человек и начинается машина.

В академической среде уже сталкиваются с этой проблемой: системы проверки на «ИИ-плагиат» массово проваливаются именно из-за отсутствия чётких критериев. Даже метрики, вроде предсказуемости и вариативности текста, дают только приблизительные оценки — и не позволяют судить об уровне «соавторства» машин и людей.

«Определить точный процент вовлечённости ИИ (например, “20%”) практически невозможно — существующие инструменты дают лишь приблизительные оценки. Возникает логичный вопрос: с какого именно уровня участия ИИ контент считается созданным нейросетью?», — обращает внимание генеральный директор VisionLabs Дмитрий Марков

Детекторы отстают от генераторов

Сейчас нейросети развиваются быстрее, чем системы, которые должны их распознавать. Некоторые генеративные модели, например Veo 3 от Google, уже сбивают с толку существующие алгоритмы детекции. При этом фокус разработчиков смещён на распознавание дипфейков с участием людей, а не на абстрактные пейзажи или объекты.

«Складывается ситуация, при которой, чтобы избежать ложных срабатываний (false positives), когда нейросеть ошибочно помечает человеческий контент как сгенерированный, приходится распознавать только тот контент, в отношении которого можно быть уверенным на 100%. Но это повышает риск пропустить материалы, созданные с применением новых ИИ-инструментов», — отмечает генеральный директор VisionLabs Дмитрий Марков.

Эксперт отметил, что качество распознавания ИИ-контента, не связанного с изображениями людей — например, пейзажей, — остаётся на низком уровне. По его словам, разработчики сосредоточены на выявлении дипфейков с участием людей, поскольку именно там выше коммерческий интерес. В результате модели для других типов ИИ-контента развиты хуже, а число эталонных тестов для их оценки значительно меньше.

«Универсального решения по маркировке гибридного контента, созданного человеком совместно с ИИ (так называемого соавторства), пока не существует», — резюмирует эксперт.

Контекст

В феврале 2025 года власти заявили, что регулировать ИИ не будут как минимум два года. Госдума создала рабочую группу, но пока без конкретных решений. Это означает: у разработчиков есть окно возможностей, чтобы самим установить правила игры. Широкое внедрение зависит от регуляторной поддержки.

Подписывайтесь на наш Telegram-канал .

Материалы по теме