Глава отдела глобальной политики Facebook Моника Бикерт рассказала о том, как работает команда модераторов этой социальной сети.
В Facebook работает 7500 модераторов по всему миру. В мае 2017 года, когда в компании было всего 4500 модераторов, Марк Цукерберг поставил перед Facebook цель увеличить их число — и за последние восемь месяцев количество нанятых модераторов превысило размер всего штата Twitter или Snapchat.
В модераторы берут не только обитателей Кремниевой долины
В первую очередь Facebook ищет носителей разных языков, а потом знакомит их с внутренней политикой компании, и те набираются опыта. Работа команды модераторов построена таким образом, чтобы модерация происходила 24/7 во всех уголках мира. Для этого компания может, например, нанять человека, который говорит на бирманском языке и живет в Дублине.
Политика Facebook в отношении модерации контента
Разработкой политики Facebook занимается 60 специалистов. Ее текст вы не найдете в Положении о правах и обязанностях или Нормах сообщества: она представляет собой особый набор правил для модераторов, который пересматривается каждые две недели командой Бикерт.
В правилах много тонкостей — например, в Facebook запрещено публиковать изображения обнаженных людей, однако этот запрет не распространяется на исторические фотографии Холокоста.
«Еженедельно мы обновляем правила. Иногда изменения бывают небольшими. Например, если какое-нибудь слово в корейском языке перестало считаться оскорбительным, и люди пытаются его использовать, нам нужно пересмотреть его оценку [в социальной сети]», — рассказала Бикерт.
Правила стараются составлять максимально детально, чтобы модераторы не могли найти в них двусмысленность. Но в таком подходе есть и свои недостатки. «Иногда бывают случаи, когда контент технически не нарушает правил, но при личном рассмотрении становится очевидно, что он оскорбителен», — сказала Бикерт.
Десятки часов видео, просмотренных вручную
Сейчас Facebook использует серьезные методы для модерации контента, но так было не всегда. Когда запустилась функция Facebook Live, инструмент для модерации не мог отмечать моменты, на которые пожаловались пользователи. Поэтому, чтобы найти отрывок, нарушающий политику социальной сети, модератором приходилось проматывать многочасовую запись трансляции целиком.
Модерацией пока занимаются люди, а не искусственный интеллект
«Нас часто спрашивают: “Когда же нас спасает искусственный интеллект?” До этого еще далеко», — утверждает Бикерт.
Текущие проверенные технологии машинного обучения все-таки недостаточно хорошо умеют учитывать контекст, в котором была размещена та или иная публикация.
«В некоторых областях технические средства действительно нам помогают, — рассказала Бикерт. — Но в основном, случаи оскорблений, ненависти или унижений рассматриваются живыми людьми, которые пытаются разобраться что происходит в реальной жизни и как эти события проявляются в сети».
Материалы по теме:
В 2018 году Марк Цукерберг поставил сложную цель: исправить Facebook
Facebook предложит пользователям голосовать за надежность новостей
Нашли опечатку? Выделите текст и нажмите Ctrl + Enter
Материалы по теме
- Пройти курс «Генерируем идеи для бизнеса: курс-практикум»
- 1 Российские блогеры нарастили доходы в Facebook, Instagram и X до 4,7 млрд рублей
- 2 Релакс-комнаты, смузи-бары и тренажерные залы в офисе: как в кино показывают работу в IT-компаниях
- 3 Мошенники вновь стали продвигать «инвестпроекты» от имени Павла Дурова
- 4 Meta* отчиталась о превышающих прогнозы прибылях в первом квартале 2024 года
ВОЗМОЖНОСТИ
28 января 2025
03 февраля 2025
28 февраля 2025