Роскомнадзор предложил соцсетям самостоятельно блокировать дипфейки — ещё до проверки на достоверность

В числе других инициатив ведомства — создание базы технологических угроз и введение маркировки ИИ-контента
15 мая 2026, 16:40
Девушка закрывает глаза рукой

Главный радиочастотный центр Роскомнадзора (ГРЧЦ) предложил социальным сетям самостоятельно выявлять и блокировать вирусные дипфейки до проверки их достоверности у доверенных источников, сообщает «Коммерсант». Участники рынка предупреждают, что технической возможности точно определять ИИ-контент не существует. Под блокировки могут попасть реальные фото и видео, что грозит соцсетям исками от пользователей.

Дипфейки хотят блокировать еще до согласия изображённых на них людей

Представитель ГРЧЦ Станислав Махортов предложил обязать социальные сети превентивно блокировать вирусные дипфейки. По его словам, такой контент распространяется быстрее горячих новостей, поэтому реагировать на него нужно сразу же, в момент роста его популярности.

В Роскомнадзоре уточнили, что соцсети должны иметь право приостанавливать распространение контента ещё до его верификации у доверенного источника — в том числе у лиц, которые фигурируют в дипфейках.

Среди других предложений ГРЧЦ — создание базы технологических угроз для просвещения населения и введение обязательной маркировки сгенерированного контента до его распространения.

Современные технологии не могут точно отличить дипфейки от реальных видео

Источник «Коммерсанта» из крупной IT-компании отметил, что в настоящий момент технологии распознавания ИИ-контента не способны обработать гигантские объёмы видео и изображений в соцсетях.

Партнёр инвестиционно-технологической компании Zarya Ventures Александр Пономарев в комментарии «Коммерсанту» поясняет, что современные генеративные модели могут быстро обходить ИИ-детекторы. В то же время снятые человеком фото и видео могут случайно попасть под блокировку.

Эксперт видит единственный вариант реализации инициативы в приостановке охватов подозрительного контента до его проверки на достоверность. Однако процедура временного ограничения показов дорогостоящая. К тому же, она может привести к росту юридических споров с пользователями соцсетей, предупреждает Пономарёв.

Гендиректор компании «Социальная лаборатория» Наталия Тылевич добавляет, что в ручном режиме мониторить дипфейки сложно — потребуется использование ИИ. Кроме того, для анализа подозрительного контента понадобится экспертиза регуляторов — ведомства должны разработать критерии для удаления и маркировки материалов.

Контекст

В марте 2026 года Минцифры представило законопроект о регулировании искусственного интеллекта, который обязывал соцсети проверять наличие маркировки на нейросетевом контенте и удалять нарушения. Бизнес-сообщество выступило против: участники рынка предупреждали о технической невозможности исполнить требование и огромных расходах на ручную модерацию.

В мае 2026 года норму смягчили: из новой версии законопроекта исключили обязанность онлайн-площадок проверять маркировку ИИ-контента. Теперь ответственность за маркировку аудиовизуальных произведений переложили на владельцев нейросетей.

Подписаться на телеграм-канал
Публикации по теме
Новости по теме