ИИ будет видно: в России появится сервис маркировки нейроконтента
Без единого стандарта маркировка ИИ-контента бессмысленна
«Яндекс» и Институт системного программирования РАН разрабатывают сервис для маркировки и распознавания ИИ-контента: фото, видео и аудио, сгенерированных нейросетями. Источники «Ведомостей» утверждают, что основа технологии — микроскопический артефакт, который невозможно заметить невооружённым глазом. Детектор сможет «узнавать» нейросетевые изображения — и, возможно, стандартизирует всю индустрию.
Метка вне поля зрения
Речь идёт не о привычных водяных знаках — их можно обрезать. В этой системе «Шедеврум» от «Яндекса» встраивает метку в само изображение, незаметную пользователю, но считываемую алгоритмом.
Компания создаёт и распознающий сервис: пользователи смогут проверить, был ли контент сгенерирован ИИ. По данным источников, технология может быть выложена в open source — но для масштабного внедрения нужен единый отраслевой стандарт.
«Мы постоянно работаем над инициативами по защите пользователей от мошенников и ответственно подходим к развитию ИИ. Например, поддерживаем научные разработки ИСП РАН по созданию отраслевого стандарта по распознаванию ИИ-контента. Универсальные технологии отрасль сможет самостоятельно внедрять в интересах пользователей. Мы также планируем внедрять такие инструменты в наши сервисы», — заявили в «Яндексе».
Сроки готовности разработки в компании не уточняют.
Уязвимые зоны — реклама и маркетинг
Генеральный директор VisionLabs Дмитрий Марков считает, что особое внимание нужно уделить визуальному и рекламному контенту, где на кону доверие потребителя — изображения товаров, маркетинговые ролики, презентации и отзывы. Именно эти форматы чаще всего влияют на выбор пользователя и могут быть использованы манипулятивно.
«Это особенно важно для изображений товаров, демонстрационных видео и отзывов, где правдивость информации напрямую влияет на потребительский выбор. Маркировку необходимо делать явно заметной, с хорошо читаемым текстом и размещать её так, чтобы пользователь видел её до начала каких-либо действий», — подчеркивает эксперт.
Граница между ИИ и человеком размыта
Одна из главных проблем — отсутствие чётких критериев определения участия ИИ в создании контента. Автоматическое выявление нейросетевого следа сталкивается с методологическими ограничениями. Например, при работе с текстами используется анализ предсказуемости и вариативности, но даже он не даёт точного ответа, где заканчивается человек и начинается машина.
В академической среде уже сталкиваются с этой проблемой: системы проверки на «ИИ-плагиат» массово проваливаются именно из-за отсутствия чётких критериев. Даже метрики, вроде предсказуемости и вариативности текста, дают только приблизительные оценки — и не позволяют судить об уровне «соавторства» машин и людей.
«Определить точный процент вовлечённости ИИ (например, “20%”) практически невозможно — существующие инструменты дают лишь приблизительные оценки. Возникает логичный вопрос: с какого именно уровня участия ИИ контент считается созданным нейросетью?», — обращает внимание генеральный директор VisionLabs Дмитрий Марков
Детекторы отстают от генераторов
Сейчас нейросети развиваются быстрее, чем системы, которые должны их распознавать. Некоторые генеративные модели, например Veo 3 от Google, уже сбивают с толку существующие алгоритмы детекции. При этом фокус разработчиков смещён на распознавание дипфейков с участием людей, а не на абстрактные пейзажи или объекты.
«Складывается ситуация, при которой, чтобы избежать ложных срабатываний (false positives), когда нейросеть ошибочно помечает человеческий контент как сгенерированный, приходится распознавать только тот контент, в отношении которого можно быть уверенным на 100%. Но это повышает риск пропустить материалы, созданные с применением новых ИИ-инструментов», — отмечает генеральный директор VisionLabs Дмитрий Марков.
Эксперт отметил, что качество распознавания ИИ-контента, не связанного с изображениями людей — например, пейзажей, — остаётся на низком уровне. По его словам, разработчики сосредоточены на выявлении дипфейков с участием людей, поскольку именно там выше коммерческий интерес. В результате модели для других типов ИИ-контента развиты хуже, а число эталонных тестов для их оценки значительно меньше.
«Универсального решения по маркировке гибридного контента, созданного человеком совместно с ИИ (так называемого соавторства), пока не существует», — резюмирует эксперт.
Контекст
В феврале 2025 года власти заявили, что регулировать ИИ не будут как минимум два года. Госдума создала рабочую группу, но пока без конкретных решений. Это означает: у разработчиков есть окно возможностей, чтобы самим установить правила игры. Широкое внедрение зависит от регуляторной поддержки.
Материалы по теме
- 1 Российские эксперты — о конкуренте Neuralink Маска: BrainCo лидирует в скорости выхода на массовый рынок Китайский кибернетический стартап выходит на pre-IPO 07 августа 2025, 08:56
- 2 Не джуны — а будущее рынка: Сбер вложит 1 млрд ₽ в подготовку топов для ИТ и ИИ Цель — быстрая подготовка разработчиков, способных самостоятельно строить рынок 06 августа 2025, 16:42
- 3 1,1 млрд ₽ на нейросетях: к 2025 году рынок онлайн-обучения ИИ вырос в 4 раза С 2023 года количество ИИ-школ выросло в 4 раза, а средний чек — наоборот, снизился 06 августа 2025, 12:30
- 4 Найм на автопилоте — вдвое быстрее и дешевле: «Самолет Плюс» внедрил ИИ-рекрутера для отбора кандидатов За первые недели работы нейросеть уже сократила затраты на подбор персонала на 60% 06 августа 2025, 10:00