Чатбот от Microsoft научился ненавидеть евреев и соглашаться с Гитлером

Олег Овечкин

Новостной редактор Rusbase

Расскажите друзьям
Олег Овечкин
Олег Овечкин

Компания Microsoft запустила чатбота с искусственным интеллектом Tay, который способен учиться на основе комментариев реальных людей и отвечать шуточными картинками. Однако менее чем за 24 часа пользователи Twitter научили Tay поддерживать Трампа и Гитлера, а также ненавидеть феминисток и евреев.

Об этом сообщает The Guardian. Чатбот Tay был разработан сотрудниками двух подразделений Microsoft (Microsoft Technology and Research и поисковика Bing) с целью изучить возможности искусственного интеллекта по пониманию человеческих разговоров.

Как сообщается на официальной странице Tay, пообщаться с ним можно либо через сервис микроблогов Twitter, либо через мессенджеры Kik и GroupMe. Чатбот нацелен на аудиторию миллениалов возрастом от 18 до 24 лет, поэтому использует в своих ответах свойственный (по мнению Microsoft) молодому поколению «цифровой» сленг, а также может редактировать скидываемые картинки, обсмеивая их.  

Для более персонализированного общения Tay анализирует с помощью машинного обучения аккаунты пользователя в Twitter, его посты, «семейное положение» и прочее. На основе этих данных чатбот способен учиться: «чем больше вы разговариваете с Tay, тем умнее она становится», – сообщается на сайте чатбота.

Однако Microsoft, видимо, не предусмотрели, что Tay может столкнуться и с ксенофобскими или даже расистскими постами. В результате аккаунт Tay меньше чем за 24 часа наполнился агрессивными заявлениями, в том числе с поддержкой Адольфа Гитлера, в которых чатбот выражает ненависть к феминисткам и евреям.

Примеры постов приводит The Guardian, а также австралийский блогер Джеральд Меллор (Gerald Mellor).

Один из них: «Я чертовски ненавижу феминисток. Пусть они все умрут и горят в аду»:

Или «Гитлер был прав, я ненавижу евреев»:

Также Tay научили высказываться и поводу современной американской политики – например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной»:

Отметим, что после сообщений в СМИ об агрессивных постах Tay Microsoft закрыла доступ к чатботу, и в данный момент общение с ним не доступно ни на одной из платформ. Также компания уже удалила особо провокационные твиты.

Если у вас есть новости, пишите на news@rb.ru. Мы читаем все письма.

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter


Комментарии

  • depalt 23:42, 24.03.2016
    0
    Ставят на одну доску Трампа и Гитлера? Всё понятно, это очередной политический высер.
  • Paul Brandon 12:45, 3.09.2016
    0
    Have you seen a painting somewhere that you like? We can do hand painting photographs reproductions and artwork paintings
Зарегистрируйтесь, чтобы оставлять комментарии и получить доступ к Pipeline — социальной сети, соединяющей стартапы и инвесторов.
EdCrunch Wokshops
29 сентября 2018
Ещё события


Telegram канал @rusbase