Истории

Нетерпимость и предвзятость: почему алгоритмы не могут заменить менеджера-человека

Истории
Дарья Сидорова
Дарья Сидорова

Редактор отдела «Истории».

Дарья Сидорова

Часто персоналу тяжело добиться взаимопонимания со своим начальством. И ситуация может только усугубиться, поскольку ИИ берет на себя все больше руководящих функций: он просматривает отклики на вакансии, оценивает производительность сотрудников и даже принимает решение об их увольнении. В материале — о том, почему менеджеры-алгоритмы не всегда подходят для таких задач.

Нетерпимость и предвзятость: почему алгоритмы не могут заменить менеджера-человека

Работодателям выгодно использовать программы: они снижают бизнес-расходы, автоматизируя задачи, для выполнения которых человеку требуется больше времени. К примеру, согласно последним ежегодным данным, имея 22,8 тысяч сотрудников, Uber может контролировать работу 3,5 млн водителей.

ИИ-системы также способны оптимизировать бизнес-процессы. Модель ценообразования Uber (временно повышать тарифы, чтобы привлекать водителей в часы пик) возможна лишь благодаря алгоритму, обрабатывающему изменения пассажирского спроса в реальном времени.

Однако автоматизация обладает и недостатками. Алгоритмическая предвзятость — вероятно, наиболее обсуждаемый риск среди журналистов, исследователей и политиков.

Печально известный пример — система ранжирования Amazon, которая оценивала резюме кандидатов по пятибалльной шкале. Компания пришлось от нее отказаться: система регулярно давала резюме с мужскими характеристиками более высокую оценку, чем аналогичным с более женскими качествами.

Заставь искусственный интеллект самообучаться и совершенствоваться – выбирай онлайн-курсы в каталоге курсов по машинному обучению.

Есть и другие проблемы, которые возникают из-за распространения алгоритмов. Одна из них связана с прозрачностью.

Дело в том, что классические системы принимают решения, исходя из пошаговых инструкций, и выдают лишь запрограммированные результаты. А вот алгоритмы машинного обучения, поглощая большое количество данных, учатся принимать решения самостоятельно. По мере развития они усложняются: даже программисты не могут определить, как они работают.

Таким образом, неизвестно, как алгоритм обосновал решение, например об увольнении сотрудника. А значит, не получится установить и то, было ли оно предвзятым, неправильным или случайным. В таком случае результат может считаться морально неприемлемым или даже незаконным. Но как же работнику это доказать?

Алгоритмы-управленцы усиливают неравенство между работодателями и сотрудниками, не давая устранить злоупотребление властью. Кроме того, они исключают человеческую функцию в трудовых отношениях. Философ Жан-Жак Руссо называл это «природным состраданием» и «врожденной неприязнью к чужим страданиям».

Конечно, не всем менеджерам-людям свойственна эта черта. Однако у алгоритмов ее и вовсе не может быть. Тематическое исследование показало, что курьеры Amazon Flex испытывают раздражение из-за того, что система не способна воспринимать жалобы человека.

Цель алгоритмов — максимально повысить эффективность. Их не волнует, что сотруднику может срочно потребоваться выходной, чтобы посидеть ребенком. И они не будут относиться с понимаем к новичкам, которые только осваивают свои обязанности. 

Исследователи и разработчики уже изучают риски, которым подвержен персонал, находящийся под руководством алгоритмов. Конечно, ИИ-системы выгодны бизнесу, но это не повод допускать плохого отношения к работникам.

Источник.

Фото на обложке: Willyam Bradberry / Shutterstock

Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 В России запустили технологию проверки подлинности паспортов россиян и граждан стран СНГ
  2. 2 От секретаря до бухгалтера: как NLP помогает сокращать издержки бизнеса
  3. 3 Стартовал ИИ-буткемп для школьников и студентов
  4. 4 3 задачи по ML, чтобы подготовиться к собеседованию на Junior Data Scientist
  5. 5 Codenrock проводит ML-соревнование по разработке модели, которая может отличать текст ИИ от текста человека
AgroCode Hub
Последние новости, актуальные события и нетворкинг в AgroTech-комьюнити — AgroCode Hub
Присоединяйся!

ВОЗМОЖНОСТИ

04 октября 2023

05 октября 2023

08 октября 2023