Истории

Facebook нужны 30 тысяч собственных модераторов — исследование

Истории
Елена Лиханова
Елена Лиханова

Редактор

Елена Лиханова

Если бы Facebook прекратил модерировать контент, то заполнился бы спамом, издевательствами и ненавистью. Вероятно, из соцсети ушла бы существенная часть пользователей, а вслед за ними — и рекламодатели с большими бюджетами.

Несмотря на важность модерации, Facebook не уделяет ей должного внимания. Большинство людей, которые определяют, что можно и чего нельзя делать в этой соцсети, даже не работают в ней — это фрилансеры, нанятые компаниями-посредниками. Решение этой проблемы предложил Центр бизнеса и прав человека Стерна при Нью-Йоркском университете.

Facebook нужны 30 тысяч собственных модераторов — исследование

Ежедневно проверку проходят сотни сообщений, многие из которых травмируют психику. Несмотря на то, что для первичной сортировки публикаций используется искусственный интеллект, ошибки происходят постоянно. По данным Facebook, 10% постов получают неверную оценку — корректные публикации могут быть заблокированы, а не соответствующие правилам — пройти модерацию. С учетом того, что ежедневно проверяются 3 млн сообщений, количество ошибок достигает 300 тысяч. Некоторые из них могут иметь смертельные последствия. Например, военнослужащие Мьянмы использовали Facebook для подстрекательства к геноциду рохинджа, преимущественно мусульманского меньшинства, в 2016 и 2017 годах. Позже компания признала, что не смогла обеспечить соблюдение собственной политики, запрещающей разжигание ненависти.

В новом докладе Центра бизнеса и прав человека Стерна при Нью-Йоркском университете говорится, что Facebook следует нанять модераторов контента в штат, сделать их полноправными сотрудниками и удвоить их количество, чтобы повысить качество проверки. «Модерация контента отличается от других аутсорсинговых задач, таких как приготовление обедов или уборка, — говорит автор доклада Пол М. Барретт, заместитель директора Центра Стерна. — Это центральная функция бизнеса социальных медиа, и странно, что к ней относятся как к незначительной или сторонней проблеме».

Почему руководство Facebook так относятся к модерации? По мнению Барретта, как минимум отчасти это происходит из-за потенциальных затрат. Выполнение его рекомендаций обошлось бы компании очень дорого — скорее всего, в десятки миллионов долларов (хотя в перспективе это стало бы ежегодно приносить ей миллиарды долларов). Но есть и вторая, более сложная причина. «Модерация контента просто не вписывается в образ Кремниевой долины, придуманный ею самой. Некоторые виды деятельности очень престижны и высоко ценятся — создание инновационных продуктов, умный маркетинг, инженерия... Проверка контента не вписывается в эту картину», — говорит Барретт.

Он считает, что Facebook пора начать рассматривать модерацию как центральную часть бизнеса. Повысив важность этого процесса, можно избежать катастрофических ошибок, допущенных в случае с Мьянмой, повысить ответственность и лучше защитить психическое здоровье сотрудников.

Модерация контента неизбежно подразумевает работу с жутким материалом. Тем не менее, компания может облегчить ее: например, проводить скрининг сотрудников и убеждаться, что они осознают все риски, а также предоставлять им качественный уход и консультации специалистов. Барретт считает, что все работники Facebook могли бы заниматься модерацией контента в течение как минимум года — это стало бы своеобразной стажировкой, которая помогла бы лучше понимать последствия решений.

В докладе содержится восемь основных рекомендаций для Facebook.

  • Прекратить передачу модерации на аутсорсинг и повысить статус сотрудников, отсматривающих контент.
  • Удвоить количество модераторов, чтобы повысить качество проверки.
  • Нанять человека, который будет контролировать контент, заниматься фактчекингом и подчиняться непосредственно CEO или COO компании.
  • Ужесточить проверку в регионах из категории риска, например, в Азии и Африке.
  • Обеспечить модераторам высококачественную медицинскую помощь на рабочем месте, в том числе доступ к психиатрам.
  • Спонсировать исследования рисков для здоровья, связанных с проверкой публикаций, в частности, посттравматических расстройств.
  • Расширить узкоспециализированное государственное регулирование опасного для здоровья контента.
  • Значительно усилить фактчекинг, чтобы бороться с фейками.

Эти предложения как минимум амбициозны. Facebook не говорит, будет ли рассматривать их внедрение. Однако представитель соцсети отметил, что в рамках нынешнего подхода компания «при необходимости может быстро перестроить рабочие процессы», добавив, что «Facebook обладает нужной языковой экспертизой и может быстро нанять сотрудников в разных часовых поясах при возникновени новых потребностей или когда этого потребует ситуация во всем мире».

Барретт считает, что недавний эксперимент, проведенный Facebook из-за кризиса COVID-19, показал возможность изменений. Поскольку многие из модераторов не могли присутствовать в офисах, компания переложила ответственность за проверку конфиденциальных категорий контента на сотрудников, работающих из дома.

«Я нахожу очень показательным, что в момент кризиса Цукерберг положился на людей, которым доверяет: своих штатных сотрудников, — говорит Барретт. — Возможно, на этом стоит основывать разговор с Facebook о корректировке подхода к модерации контента».

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Марк Цукерберг раскритиковал Twitter за оценку сообщений Трампа
  2. 2 Facebook будет блокировать рекламу с обещаниями излечения от коронавируса
  3. 3 Цукерберг: «Новый подход Facebook к контенту разозлит многих людей»
  4. 4 The Verge: модераторы YouTube подписывают уведомления о том, что работа может нанести им психологическую травму

Актуальные материалы —
в Telegram-канале @Rusbase