Олег Овечкин

Чатбот от Microsoft научился ненавидеть евреев и соглашаться с Гитлером

Компания Microsoft запустила чатбота с искусственным интеллектом Tay, который способен учиться на основе комментариев реальных людей и отвечать шуточными картинками. Однако менее чем за 24 часа пользователи Twitter научили Tay поддерживать Трампа и Гитлера, а также ненавидеть феминисток и евреев.


Об этом сообщает The Guardian. Чатбот Tay был разработан сотрудниками двух подразделений Microsoft (Microsoft Technology and Research и поисковика Bing) с целью изучить возможности искусственного интеллекта по пониманию человеческих разговоров.

Как сообщается на официальной странице Tay, пообщаться с ним можно либо через сервис микроблогов Twitter, либо через мессенджеры Kik и GroupMe. Чатбот нацелен на аудиторию миллениалов возрастом от 18 до 24 лет, поэтому использует в своих ответах свойственный (по мнению Microsoft) молодому поколению «цифровой» сленг, а также может редактировать скидываемые картинки, обсмеивая их.  

Для более персонализированного общения Tay анализирует с помощью машинного обучения аккаунты пользователя в Twitter, его посты, «семейное положение» и прочее. На основе этих данных чатбот способен учиться: «чем больше вы разговариваете с Tay, тем умнее она становится», – сообщается на сайте чатбота.

Однако Microsoft, видимо, не предусмотрели, что Tay может столкнуться и с ксенофобскими или даже расистскими постами. В результате аккаунт Tay меньше чем за 24 часа наполнился агрессивными заявлениями, в том числе с поддержкой Адольфа Гитлера, в которых чатбот выражает ненависть к феминисткам и евреям.

Примеры постов приводит The Guardian, а также австралийский блогер Джеральд Меллор (Gerald Mellor).

Один из них: «Я чертовски ненавижу феминисток. Пусть они все умрут и горят в аду»:

Или «Гитлер был прав, я ненавижу евреев»:

Также Tay научили высказываться и поводу современной американской политики – например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной»:

Отметим, что после сообщений в СМИ об агрессивных постах Tay Microsoft закрыла доступ к чатботу, и в данный момент общение с ним не доступно ни на одной из платформ. Также компания уже удалила особо провокационные твиты.


comments powered by Disqus

Подпишитесь на рассылку RUSBASE

Мы будем вам писать только тогда, когда это действительно очень важно