Истории

Автоматизированный фактчекинг: подходит ли он для соцсетей

Истории
Елена Лиханова
Елена Лиханова

Старший редактор RB.RU

Елена Лиханова

Пандемия, протесты в США и скандалы из-за выборов создали идеальные условия для распространения дезинформации в социальных сетях. Для борьбы с ней используются различные фактчекинг-инструменты на базе искусственного интеллекта, но эта технология все еще далека от совершенства.

Недавно Twitter пометил одно из сообщений Дональда Трампа как содержащее недостоверные данные. Из-за этого многие задались вопросом, должны ли соцсети вообще заниматься фактчекингом и как обеспечить объективность проверки. Пока прогноз ученых не слишком оптимистичен.

Автоматизированный фактчекинг: подходит ли он для соцсетей
Присоединиться

Сам Трамп заявил, что Twitter вмешивается в выборы 2020 года, добавляя к сообщению ярлык, предлагающий читателю «узнать больше о рассылке бюллетеней для голосования». После этого главы технологических компаний начали обсуждать идею автоматизированной технологии с открытым кодом для фактчекинга, которая бы могла решить проблему. Однако далеко не все были настроены так оптимистично.

«Боюсь показаться скучным, но чувствую, что мне слишком трудно это представить, — говорит Эндрю Дадфилд, глава отдела по автоматизированному фактчекингу в британской НКО Full Fact. – Для этой задачи нужно учесть столько тонкостей и выполнить ее с такой точностью, на которую технологии пока не способны».

Full Fact получила грант от Google AI за общественно полезные разработки, которые дополняют, но не заменяют традиционную проверку фактов. Способность программы синтезировать большие объемы информации помогла фактчекерам приспособиться к масштабу информационной онлайн-среды. Но некоторые задания, например, истолковать проверенные факты в контексте, или учесть оговорки и лингвистические тонкости, лучше поручить человеку.

«Мы ограниченно применяем ИИ… чтобы найти пример, который можем отдать на проверку человеку и сказать: "Похоже, здесь совпадение", — говорит Дадфилд. – Я думаю, что пока нельзя настолько доверять проверку автоматической системе – сейчас это преждевременно».

Социолог Мона Слоун из Нью-Йоркского университета изучает, как в ИИ-системах проявляется неравенство. Она беспокоится, что полностью автоматизированный фактчекинг только укрепит предвзятость. В частности, Слоун указывает на сегмент афроамериканских пользователей Twitter — эта соцсеть слишком часто отмечает их разговорный язык как потенциально оскорбительный. 

Поэтому, считают Слоун и Дадфилд, важно учитывать характер данных, которые обрабатывает алгоритм. «ИИ кодифицирует ту информацию, которую получает, поэтому, если в систему поступают неоднозначные данные, неоднозначным будет и результат, — говорит Дадфилд. — Но вводные данные получены от людей. Поэтому в таких случаях в конечном счете важно убедиться, что данные на входе верны, и что вы регулярно за этим следите».

Если упустить эти нюансы, могут появиться инструменты, провоцирующие неравенство, которые «явно будут направлены на усиление социальной иерархии, которая строится на расе, классе и гендере, — пишет в своей книге Race after Technology профессор Принстонского университета Руха Бенжамин. — Дискриминация по умолчанию появляется из-за того, что при разработке игнорируется социальное неравенство».

Стать востребованным специалистом по кибербезопасности можно, выбрав онлайн-курс в каталоге курсов по информационной безопасности.

Но что происходит, когда в разработке участвует бизнес? Когда социальные платформы применяют эти технологии избирательно, в интересах своих клиентов?

Кэти Кальвер, директор центра журналистской этики в Висконсинском университете в Мэдисоне, считает, что экономические стимулы для увеличения числа пользователей и вовлеченности часто показывают, как компании относятся к социальной ответственности. 

Фото: Aleksandr Voronkov / Shutterstock

«Если сто крупнейших работодателей скажут: "Нам надоели мифы и дезинформация на вашей платформе, и мы отказываемся размещать на ней свой контент", можно быть уверенным — платформы будут над этим работать», — говорит Кальвер.

Но проблема в том, что рекламодатели часто сами и распространяют дезинформацию. Возьмем Faceboook, одного из партнеров Full Fact. Правила социальной сети не распространяются на ее крупнейших рекламодателей — политиков и политические организации. Иными словами, они не обязаны проходить фактчекинг.

Как оправдывает это Марк Цукерберг? Этикой маркетплейса идей — верой в то, что правда и общепринятые идеи выиграют в информационном соревновании. Но на этом маркетплейсе «сила распределена неравномерно», говорит Кальвер.

Внутреннее расследование Facebook обнаружило, что у радикально правых «намного больше аккаунтов и авторов», чем у радикально левых, несмотря на то, что большинство американцев придерживаются скорее левых взглядов. Вновь и вновь Facebook увеличивал присутствие платного контента — даже когда информация явно вводила в заблуждение или была направлена на аудиторию афроамериканцев.

«Этика использовалась как прикрытие, потому что она не регулируется законом, — говорит Слоун. — Она не подстраивается под более широкий политический, социальный и экономический контекст. Это умышленно неопределенный термин, который поддерживает системы власти, потому что власть решает, что этично».

Facebook знает, что его алгоритмы толкают пользователей на разные стороны баррикад и стимулируют плохие действия. Но он также знает, что борьба с этими проблемами может повлиять на пользовательскую вовлеченность — и доход от рекламы, который составляет 98% выручки компании и достиг почти $69,7 млрд в одном только 2019 году. Поэтому Facebook ничего не делал.

Борьба с дезинформацией и двусмысленностью требует больше, чем алгоритмы на базе искусственного интеллекта. Для этого нужна смелость и понимание истоков проблемы. 

«Продукты и сервисы, которые предлагают решения для избавления от социальных предубеждений... в конечном итоге могут воспроизводить или даже углублять дискриминацию из-за субъективного понимания справедливости», — пишет Бенджамин.

Прежде чем использовать автоматизированный фактчекинг, стоит разобраться: с учетом чьих интересов он спроектирован и чьи интересы он подавляет? Какова мотивация социальных платформ в борьбе с фейками и дезинформацией? Пока мы не обеспечим непредвзятость в процессе разработки, ИИ не научится борьбе с фейками и дезинформацией. 

Источник.

Фото на обложке: JeremyRichards / Shutterstock

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Facebook нужны 30 тысяч собственных модераторов — исследование
  2. 2 Индийские программисты вместо ИИ и фейки на сайтах знакомств: пять примеров мошенничества в сфере высоких технологий
  3. 3 Мягкая киберугроза: как технологии борются с фейками в сети
  4. 4 «Дочка» Alphabet разработала программу для выявления фейковых фотографий
AgroCode Hub
Последние новости, актуальные события и нетворкинг в AgroTech-комьюнити — AgroCode Hub
Присоединяйся!