Как алгоритмы Facebook и Youtube портят нам жизнь

Алена Сомова
Алена Сомова

Редактор

Расскажите друзьям
Алена Сомова

Алгоритмы, используемые Facebook и другими технологическими компаниями для увеличения прибыли, часто влияют на нашу социальную жизнь и даже имеют печальные последствия.

Технокритик Сара Уотер-Боеттчер в колонке на The Guardian рассуждает о том, что функции социальных платформ буквально заточены под злоупотребления.

В начале месяца Facebook объявила о запуске новой экспериментальной программы в Австралии. Она направлена на прекращение «порномести» — недобровольного размещения обнаженных или откровенных фотографий — на платформе компании. Что они предлагают? Просто отправьте в Facebook свои фото «ню». 

Нет, вы не ослышались. Если вы боитесь, что кто-то может распространить в Facebook ваши откровенные фотографии, вы должны сами отправить их в Facebook.

Это прекрасный пример того, как сегодняшние технологические компании пытаются прыгнуть выше головы, разработав средства решения сложных социальных проблем. При этом им даже не приходит в голову, что именно их бизнес-модели могли породить эти проблемы.


Если вы боитесь, что кто-то может распространить в Facebook ваши откровенные фотографии, вы должны сами отправить их в Facebook


Давайте рассмотрим конкретный пример, чтобы понять, как должна работать новая схема Facebook. Если вы беспокоитесь о «порномести», вы заполняете онлайн-форму в офисе австралийского уполномоченного по информационной безопасности. Затем этот офис уведомляет Facebook о том, что вы отправили запрос. Далее вы отправляете фото через мессенджер. Facebook получает изображение, просматривает его, а затем создает цифровой отпечаток, или «хеш». Сохраняет он именно хеш, а не саму фотографию, и уведомляет вас о том, что необходимо удалить фото из приложения. Как только вы это сделали, Facebook удаляет фотографию со своих серверов. Затем, когда другой пользователь загружает фото на платформу, алгоритм проверяет снимок по базе данных. Если алгоритм обнаруживает, что он подпадает под категорию «порноместь», пользователь не сможет его разместить.

Марк Цукерберг рассуждает об устойчивости демократического процесс. Фото: Facebook 

Только подумайте, сколько всего может пойти не так. Чтобы система в принципе работала, у вас не только должны быть цифровые копии всех провокационных фото, которые могут попасть в сеть. Вы еще должны спокойно относиться к тому, что на них будет пялиться кучка незнакомцев из Facebook, и надеяться, что система хеширования пресечет попытки загрузить изображения. И это при условии, что все идет по плану: что вы не сорвете процесс загрузки и не отправите их по ошибке кому-то еще, что сотрудники Facebook не используют фото в корыстных целях, что ваша учетная запись в Messenger не будет взломана, что Facebook действительно удалит изображение со своих серверов. Короче говоря, вы должны быть стопроцентно уверены в том, что базы данных и сотрудники Facebook будут тщательно обрабатывать эту секретную информацию. Если хотя бы один элемент в цепи выйдет из-под контроля, пользователь будет публично унижен, и это еще не самое страшное.


Алгоритм Facebook генерирует фотомонтажи пользователей с их друзьями. В результате вы получаете видео, на котором человек попадает в аварию и больницу под джазовую музыку


Учитывая печально известный опыт Facebook по разрешению щекотливых вопросов, я бы не советовала подписываться на эту авантюру. 

Заглянув в прошлое, мы можем найти примеры драматичных историй. В 2012 году Facebook разоблачила двух гомосексуалистов из Техасского университета, Бобби Дункана и Тейлора Маккормика. Студенты использовали настройки конфиденциальности, чтобы скрыть свою сексуальную ориентацию от родственников, но Facebook опубликовала обновление их профилей, указав, что они подписались на ЛГБТ-сообщество Chorus Queer.

Скриншот Julieanne Smolinski

А как насчет сервиса Year In Review («Обзор года» — прим. ред.), запущенного Facebook в 2014 году? Он собрал самый популярный контент уходящего года, чтобы мы могли заново пережить трепетные моменты. Мой друг Эрик Майер избегал этой функции, но Facebook все равно разместил видео в его ленте. Презентация начиналась с фото его шестилетней дочери Ребекки в окружении воздушных шаров, серпантина и танцующих людей. Ребекка умерла. Но алгоритм Facebook не знал, насколько этично использовать это изображение. Он просто знал, что оно популярно.

После запуска Year In Review компания начала усиленно тиражировать праздничные напоминания, сгенерированные этим алгоритмом. Теперь в соцсети есть рубрика On this day («В этот день» — прим.ред.), которая всплывает в моей ленте как минимум раз в неделю, хотя я указывала в настройках, что мне не интересны эти посты. Также есть функция Friends Day («День друзей» — прим.ред.). Facebook отправляет алгоритмически сгенерированные фотомонтажи пользователей с их друзьями. В результате вы получаете видео, на котором человек попадает в аварию и доставляется в больницу под джазовую музыку.

Злая ведьма вот-вот приготовит на костре Пеппу и Джорджа. Фото: YouTube

Facebook тратит слишком много времени и сил на построение алгоритмически контролируемых функций для увеличения аудитории и эффективного взаимодействия с рекламодателями, забывая о социальных и культурных последствиях этих действий.

Разумеется, Facebook — далеко не единственная компания, которая использует алгоритмы для роста вовлеченности пользователей. Это характерно для большей части технологической индустрии, особенно для компаний, чей доход зависит от рекламы. В начале месяца писатель Джеймс Брайдл опубликовал подробный обзор жуткого и жестокого контента YouTube, ориентированного на детей — от мультфильмов про свинку Пеппу, в котором поездка к стоматологу превращается в сцену пыток, до неэтичных видео, показывающих реальных детей, которых тошнит и скручивает от боли. 

Фото: Bustle

Эти видеоролики снимаются и добавляются в YouTube тысячами, а затем обрастают длинными списками популярных поисковых запросов. Ключевые слова предназначены для управления алгоритмом, который сортирует, оценивает и выбирает контент для просмотра пользователями. Благодаря бизнес-модели, нацеленной на увеличение количества просмотров (и, следовательно, дохода от рекламы), эти видео автоматически воспроизводятся и рекламируются детям на основе их «сходства» с ранее просмотренными роликами. Это означает, что ребенок может начать смотреть очередную серию «Свинки Пеппы» на официальном канале, а затем увидеть эпизод, содержащий сцены жестокости и насилия. При этом его родители даже не будут об этом подозревать.

YouTube переложил ответственность на пользователей хостинга, попросив их помечать видео с неэтичным контентом. Далее эти видео направляются экспертной группе, состоящей из тысяч людей, круглосуточно просматривающих контент. Если он окажется неприемлемым для детей, он получит возрастное ограничение и не будет отображаться в приложении YouTube Kids. Тем не менее, он по-прежнему будет транслироваться на YouTube. Предполагается, что пользователям видеохостинга должно быть не менее 13 лет, но на самом деле им пользуется огромное количество детей. Только подумайте, как часто взрослые дают им в руки смартфон или планшет, чтобы занять их в общественном заведении. 

Фото: Getty Images

Как и схема Facebook, этот подход имеет несколько недостатков. Вполне вероятно, что большинство людей, которые столкнутся с подобными видео, окажутся детьми. Я не думаю, что многие шестилетние дети станут идейными модераторами контента в ближайшее время. И даже если контент помечен как неприемлемый, он все равно нуждается в проверке.

Когда мы говорим об этой проблеме, реакция технологических компаний часто сводится к тому, что это всего лишь статистическая погрешность. В любой системе есть сбои, и когда речь идет о предоставлении бесконечных потоков контента миллиардам пользователей, без них не обойтись. Вы должны разбить несколько яиц, чтобы приготовить омлет, и вам приходится травмировать нескольких детей, чтобы построить глобальный интернет-ресурс стоимостью $600 млрд.


Вам приходится травмировать нескольких детей, чтобы построить глобальный интернет-ресурс стоимостью $600 млрд


И в этом основная проблема. В своем безудержном стремлении обогатиться эти компании построили платформы вокруг функций, которые не просто допускают злоупотребления, а буквально заточены под них. Возьмите систему, в которой легко играть и которую выгодно неправильно использовать. Систему, связанную с уязвимыми людьми и самыми сокровенными моментами. Систему, работающую в масштабах, которые невозможно контролировать или хотя бы отслеживать. Вот что вы получаете на выходе.

Вопрос в том, когда мы заставим технологические компании считаться с тем, что они натворили. Мы давно решили, что не позволим компаниям продавать сигареты детям или помещать асбест в строительные материалы. Если мы захотим, мы сможем наложить ограничения на действия технологических компаний по увеличению аудитории, вместо того чтобы смотреть, как эти платформы все дальше и дальше отходят от утопических идеалов, которые нам навязали.

Источник.


Материалы по теме:

«ВКонтакте» обновила дизайн приложений и добавила новый алгоритм рекомендаций

Иван Настюхин (Flocktory) – о предиктивных алгоритмах в цифровой экономике на Big Data Conference

Почему алгоритмы машинного обучения начинают ошибаться

«Яндекс» запустил новый алгоритм поиска с выдачей не по словам, а по смыслу запроса


Самые актуальные новости - в Telegram-канале Rusbase


Комментарии

Комментарии могут оставлять только авторизованные пользователи.
Реклама помогает Rusbase


Разместить рекламу



Telegram канал @rusbase