Facebook запустила новую систему для помощи в модерации на основе ИИ. Она будет присылать модераторам сообществ оповещения о конфликтах в переписке. Ранее соцсеть уже внедрила подобный алгоритм, но он не смог идентифицировать шутки и сарказм и помечал такие комментарии как потенциально неприемлемые.
Система, пока работающая в тестовом режиме, получила название Conflict Alerts, пишет издание The Verge. Нейросеть будет помечать подозрительные комментарии отметкой "moderation alert" и отправлять их модераторам сообществ. В Facebook сообщили изданию, что для поиска будет использована машинная модель обучения.
Ранее соцсеть уже внедрила похожую систему для помощи в модерации. В ее приоритете стоит поиск контента, связанного с терроризмом, сексуальной эксплуатацией детей и попытками самоубийства. Однако алгоритм не смог идентифицировать шутки и сарказм, в результате чего подобный контент и комментарии попадают к модераторам сообществ.
Подписывайтесь на наш TG-канал, чтобы быть в курсе всех новостей и событий!
Фото: Depositphotos.comНашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- 1 Идеи никогда не закончатся: зачем бизнесу контент-план и контент-матрица
- 2 Кража в сети: что делать, чтобы конкуренты не похитили ваш контент
- 3 Как мини-приложения «ВКонтакте» помогают бизнесу увеличивать продажи и растить лояльность
- 4 8 главных ошибок при продвижении сообщества «ВКонтакте»
- 5 20 направлений интернет-маркетинга, которые стоит использовать осенью 2023