Истории

Хорошие и плохие способы использовать машинное обучение в предвыборной кампании

Истории
Алексей Зеньков
Алексей Зеньков

Редактор направления Истории

Светлана Зыкова

Есть множество примеров того, как с помощью ИИ можно влиять на ход предвыборной кампании. Научный сотрудник Оксфордского университета и CEO компании Avantgarde Analytics Вячеслав Полонский рассказал о главных угрозах современной демократии со стороны технологий.

Хорошие и плохие способы использовать машинное обучение в предвыборной кампании

Сейчас как никогда подходящее время стать политиком. Лучше этого разве что стать специалистом по машинному обучению и работать на политика.

На протяжении всей современной истории у политических кандидатов были ограниченные инструменты для отслеживания настроений и мнений электората. Часто в ходе предвыборной гонки им приходилось опираться не столько на проверенные данные, сколько на интуицию.

Все это изменилось с развитием технологий больших данных и их использования в политических играх. Известный пример – выборы президента США уже в 2008 году, когда крупномасштабный анализ данных из соцсетей помог повысить эффективность сбора средств и координировать волонтеров. Следующий этап этой цифровой трансформации – интегрировать системы искусственного интеллекта в работу предвыборных штабов и другие элементы политической жизни.

Уже сегодня системы машинного обучения умеют предсказывать, какие законопроекты будут приняты в Конгрессе США. Алгоритмическая оценка внедряется в систему правосудия в Великобритании. И, что самое удивительное, продукты машинного обучения начинают использоваться в предвыборных кампаниях для взаимодействия с избирателями и передачи им информации о ключевых политических вопросах.

Фото: Чарльз Манн/Getty Images

Но раз мы приближаемся к моменту, когда все – сбор информации об избирателях, таргетинг и разговорное взаимодействие – можно автоматизировать, стоит спросить себя: не рискуем ли мы своей демократией, доверяя системам ИИ так много? Как далеко мы зайдем в деле интеграции машин в самую человечную сторону демократии?

Эти этические вопросы особенно актуальны в свете недавних расследований подготовки к референдуму по Brexit и президентских выборов в США в 2016 году. В частности, есть основания полагать, что технологии на основе ИИ систематически применялись для манипуляций над гражданами. Некоторые люди беспокоятся, что это могло сыграть решающую роль в исходе референдума и выборов.

Атака ботов

В первую очередь поговорим об использовании ИИ для манипуляции публичным мнением: целые отряды политических ботов распространяли по соцсетям пропаганду и лживые новости. В данном контексте боты – это автономные аккаунты, которые транслируют однобокие политические сообщения и создают иллюзию общественной поддержки.

Обычно замаскированные под страницы обычных людей, боты помогают распространять дезинформацию и создавать враждебный политический климат в твиттере и фейсбуке. Они очень эффективны для атак на избирателей из противоположного лагеря и даже для того, чтобы отбить им желание прийти на избирательные участки.

К примеру, боты регулярно проникали в среду сторонников Хиллари Клинтон и распространяли там сгенерированный алгоритмом контент, на долю которого в итоге пришлась четверть всех материалов о выборах в твиттере. Массированный поток таких сообщений мог эффективно бороться с теми, кто колебался со своим выбором, и оказать поддержку кампании Дональда Трампа.

Также с помощью ботов были организованы утечки #MacronLeaks в соцсети за считанные дни до президентских выборов во Франции. Боты наводнили фейсбук и твиттер наполовину украденной, наполовину ложной информацией, главным предназначением которой было убедить всех, что Эммануэль Макрон – мошенник и лицемер. Стандартная тактика при использовании ботов и доминирования в новостных лентах соцсетей.

Темная сторона политического ИИ

Вторая проблема – использование ИИ для манипулирования отдельными избирателями. В ходе кампании перед президентскими выборами в США была развернута обширная рекламная кампания, нацеленная на колеблющихся избирателей – они специально были отобраны на основе индивидуальных черт характера. Этот крайне сложный микротаргетинг влиял на эмоции людей благодаря бигдата и машинному обучению.

Главный минус такого подхода – не столько технология, сколько скрытная суть кампании и явная лживость ее содержания. Разным избирателям приходили разные сообщения в зависимости от уязвимости к различным аргументам.

Фото: txking/Shutterstock

Конечно, эта тактика особенно подходила кандидату в президенты с расплывчатыми и гибкими обещаниями. Каждый избиратель мог получить индивидуальное сообщение, в котором упор делался на определенные аспекты. Каждый избиратель увидел такого Трампа, какого хотел. Залог успеха был в том, чтобы найти подходящие эмоциональные триггеры для каждого человека и призвать его к действию.

Демократия под угрозой

Разумеется, информационная война появилась не сегодня. Одними из первых в истории примеров крупномасштабной пропаганды стали войны памфлетов в Средние века. Однако с природой и размахом пропаганды в компьютерный век им было бы невозможно тягаться. На самом деле, беспринципное использование ИИ перед выборами заставляет задуматься о стабильности нынешней политической системы.

Представительная демократия зависит от честных и свободных выборов, на которых граждане смогут голосовать самостоятельно, без какого-либо страха или манипуляций. Однако честные выборы в США окажутся под угрозой – если технологии продолжат использовать для влияния на избирателей и продвижения экстремистской повестки.

Строить ИИ вокруг человека

Легко винить ИИ-технологии во всех проблемах мира (в том числе и в проигранных выборах), но есть одна загвоздка: технологии, лежащие в основе, сами по себе не несут никакого вреда. Алгоритмы, с помощью которых людей смутили и дезинформировали, можно использовать для поддержки демократии и взаимодействия с гражданами. В конце концов, политический ИИ должен работать на благо людей, а не наоборот.

Есть множество вариантов, как ИИ может помочь развитию предвыборных кампаний с этической стороны. К примеру, запрограммированные боты могут вступать в дело, когда кто-то станет распространять заведомо ложные сведения. Микротаргетинговые кампании могут способствовать осведомленности избирателей по различным политическим вопросам, чтобы они могли сформировать собственное мнение. И, самое главное, с помощью ИИ можно добиться того, чтобы избранные политики лучше и быстрее слышали своих граждан.

Альтернативный сценарий ограничения компьютерной пропаганды – более четкое законодательство. Более жесткие правила защиты данных и регламент написания алгоритмов помогли бы снизить степень вредоносного использования машинного обучения.

Однако законодательство всегда отстает от технологий. Можно только надеяться, что когда правительство все-таки начнет обсуждать правила использования ИИ в политике, у нас еще останутся демократически избранные лидеры.

Все сервисы и компании, связанные с релокацией, на одной карте

Источник


Материалы по теме:

Специалист по кибербезопасности рассказал, как хакеры голосуют на выборах вместо нас

Сооснователь Twitter извинился за победу Трампа на президентских выборах

Специалист по большим данным из штаба Трампа рассказал, что победа была предсказуема

Как террористы используют соцсети для вербовки

Фото на обложке: I'm friday/Shutterstock

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 В помощь юристам: как развивается рынок LegalTech и что ему мешает
  2. 2 RegTech по-русски: как поменялся рынок распознавания документов за последние недели и какие решения нужны отрасли?
  3. 3 Монетизируй это: как заработать на архиве документов компании
  4. 4 Девять курсов по финтеху для профессионалов и новичков
  5. 5 Что происходит на российском RegTech-рынке?
Relocation Map
Интерактивный гид по сервисам и компаниям, связанным с релокацией
Перейти