Истории

Тесты, викторины и никаких интервью: как устроен автоматический наем в Amazon

Истории
Александра Степанова
Александра Степанова

Редактор

Александра Степанова

Человечество давно стремится автоматизировать различные рутинные процессы. Появление искусственного интеллекта позволило распространить этот механизм на более сложные задачи. Сотрудник склада Amazon Райан Фэн рассказывает, как был организован процесс его трудоустройства в компанию.

Тесты, викторины и никаких интервью: как устроен автоматический наем в Amazon

Несколько недель назад я отправил в Amazon резюме на должность сотрудника склада. Система предложила посмотреть видео и пройти викторину по размещению грузов — тяжелое вниз, легкое наверх. Примерно через 20 минут мне пришло электронное письмо от Amazon с сообщением, что я принят на работу, и указанием прийти в отдел по работе с персоналом на складе в Балтиморе — нужно было сделать фото для бейджа и отсканировать документы.

Несмотря на впечатляющую скорость и простоту процесса, я не мог отделаться от одной мысли — я устроился в одну из крупнейших компаний мира, не поговорив ни с одним человеком. Этот факт заставлял задуматься о том, как далеко зашел процесс автоматизации в нашем мире.

Несколько дней спустя я сдал тест на наркотики и заполнил еще одну анкету. На складе, где мне предстояло работать, я провел менее пяти минут и встретил всего двоих сотрудников. Все это показалось мне очень непривычным. Неужели для компании не имеют значения человеческие качества? Смогли ли сотрудники оценить их за время нашей короткой встречи, или важна только моя способность выполнять работу?

Последней частью процесса трудоустройства оказалось часовое обучающее видео, в котором рассказывалось обо всех особенностях работы на складе: от требований безопасности до подходящей одежды.

Автоматический найм сотрудников на некоторые вакансии экономит массу времени, особенно в крупных компаниях (по состоянию на 30 апреля в Amazon работало более 935 тысяч человек). Также считается, что такой подход поможет бороться с дискриминацией. Фрида Полли из Harvard Business Review отмечает, что люди даже не стали бы рассматривать многих кандидатов, в то время как искусственный интеллект беспристрастно оценивает всех, кто подал заявление.

Однако профессора Корнелльского университета Маниш Рагхаван и Солон Барокас придерживаются противоположного мнения и заявляют, что новый подход может только усугубить эту проблему. Профессор права и сотрудница Хранилища препринтов по социальным и гуманитарным наукам SSRN (Social Science Research Network) Ифеома Аджунва отмечает, что инструменты, используемые при автоматическом найме, могут ограничивать возможности соискателей значительно сильнее, чем беседа с сотрудником отдела кадров — особенно, если речь идет о низкооплачиваемой или почасовой работе.

Amazon уже нашла подтверждение этому мнению в собственных алгоритмах: в 2018 году специалисты по машинному обучению обнаружили, что система автоматического найма чаще выбирает мужчин. Для настройки ее алгоритмов использовались резюме, которые были поданы в компанию за последние десять лет. Среди них оказалось больше заявлений от кандидатов мужского пола, поэтому система научилась снижать шансы женщин. Инженеры пытались устранить эту проблему, но сделать это так и не удалось. Предвзятость инструмента Amazon оказалась связана с тем, что он был создан на основе реальных резюме.

Goldman Sachs в 2016 году сознательно начал использовать формат автоматического интервью, чтобы повысить культурное разнообразие команды. Но в статье New York Times за 2019 год Аджунва утверждает, что рост автоматизации не решает эту проблему и приводит к появлению замкнутой системы, лишенной прозрачности и подотчетности.

Интернет показывает объявления о вакансиях определенному кругу лиц, и после автоматического отбора компания нанимает нескольких кандидатов. Алгоритм использует их ответы при создании критериев трудоустройства будущих сотрудников.

Исследовательница приводит два примера дискриминации при онлайн-трудоустройстве. В ходе судебного разбирательства 2017 года было установлено, что платформы автоматизированного найма дискриминировали кандидатов по возрасту — в раскрывающемся списке, в котором нужно было указать период обучения в колледже, отсутствовали годы выпуска начиная с определенной даты. В 2016 году против Facebook был подан групповой иск, в результате которого компании пришлось перенастроить платную рекламную платформу для соблюдения антидискриминационных законов. Функция «Похожие пользователи» позволяла работодателям показывать объявления о работе только тем пользователям Facebook, которые внешне напоминали их нынешних сотрудников. Это приводило к дискриминации по расовому и половому признаку.

Аджунва утверждает, что до тех пор, пока работодатели могут по своему усмотрению выбирать критерии «культурного соответствия», у них остается возможность для дискриминации. EEOC (Equal Employment Opportunity Commission — Комиссия по равным возможностям занятости в США) разделяет эти опасения. Например, было установлено, что тесты для кандидатов на вакансии Best Buy нарушали Раздел VII Закона о гражданских правах. Это вынудило компанию отказаться от использования опросника, который был частью процесса автоматизированного найма и применялся для прогнозирования эффективности работы сотрудников. Тест отдавал преимущество тем кандидатам, у которых не было пробелов в трудовом стаже. Такой подход снижал шансы женщин, которые прерывали карьеру, чтобы позаботиться о детях.

Автоматизация различных процессов (например, найма сотрудников) — это тренд ближайшего будущего. Но для борьбы с возможной дискриминацией нужно отнестись к настройке соответствующих систем более внимательно.

По словам адвокатов Марка Жируарда и Мацея Цегловски, правила EEOC призваны сделать процесс трудоустройства сотрудников максимально прозрачным. Например, предлагается обязать компании хранить данные, связанные с процессом подбора сотрудников. В случае выявления факта дискриминации работодателя могут привлечь к ответственности. Аджунва поддерживает такой подход. Если у комиссии возникнут вопросы к используемой компанией системе найма, работодатель должен будет предоставить доказательства того, что данная платформа не была создана с целью дискриминации определенных групп кандидатов.

В еще одной статье Аджунва предлагает обязать работодателей проводить внутренний и внешний аудит. Эти проверки позволят удостовериться в том, что ни один из кандидатов не был исключен несправедливо.

OSHA (Occupational Safety and Health Administration — Управление по безопасности и гигиене труда) проводит проверки безопасности сотрудников на рабочем месте и на их основе ставит оценки работодателям. Аджунва выступает за введение аналогичной системы для контроля за платформами автоматического найма. Также она рекомендует начать коллективное обсуждение, в ходе которого представители профсоюзов совместно с работодателями смогут разработать критерии подбора сотрудников и усилить защиту личных данных кандидатов.

Пандемия COVID-19 способствовала росту популярности ИИ в сфере подбора персонала. Стремясь свести к минимуму личные контакты, многие работодатели проводят собеседования онлайн и используют возможности искусственного интеллекта для подбора сотрудников. При этом для того, чтобы обеспечить равноправие и справедливость процесса, по-прежнему нужны люди.

Источник.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Материалы по теме

  1. 1 Как чат-боты производят переворот в процессе найма
  2. 2 8 шагов к эффективности: как HR-аналитика помогает нанимать лучших сотрудников
  3. 3 5 уроков о найме, которые я поняла, уволив сотни сотрудников
  4. 4 «Понятие приватности нужно оставить в XX веке». Гендиректор NtechLab о технологии распознавания лиц и «внутренней кухне» компании

Актуальные материалы —
в Telegram-канале @Rusbase

ВОЗМОЖНОСТИ

07 августа 2020

Ipsen Biomed Challenge

08 августа 2020

Цифровые джунгли

09 августа 2020

IT хакатон

09 августа 2020

Лето.SAAS

11 августа 2020

ArtMasters