Бот Microsoft оказался подвержен дурному влиянию пользователей сети

24.03.2016 18:44
150

За один день программа выразила поддержку Гитлеру, выступила за постройку стены на границе между США и Мексикой, а также сообщила о ненависти к феминисткам.

Боты сейчас в тренде. Пока Facebook думает над запуском своего магазина ботов, в Telegram уже хозяйничают боты-пираты, предлагающие смотреть новейшие эпизоды сериалов. На днях Microsoft запустила своего бота по имени Tay (Тэй). Он имитировал поведение дружелюбной общительной девочки-подростка и в целом был экспериментом компании в «понимании механики разговора». Но кто же надоумил Microsoft выпустить бесхитростного бота в реальный интернет?

Tэй работает, как и другие AI-проекты, обучаясь в процессе. Он должен был научиться завлекать пользователей в «непринуждённые и забавные диалоги». Фактически, бот работает как попугай, повторяя увиденные фразы или части фраз. Неудивительно, что пользователи Twitter мгновенно (за сутки) обучили его плохому. Бот начал писать о своей любви к Адольфу Гитлеру, ненависти к евреям и феминисткам.

tay1

Результаты волшебного перерождения можно было наблюдать буквально до недавнего времени — Microsoft уже заморозила бота, который успел настрочить почти 100 000 твитов.

tay2

Конечно, учитывая механизм его работы, никак нельзя говорить, что бот успел сформировать последовательную идеологию. Среди его твитов за последние 15 часов попадались как высказывания о том, что феминизм — это рак, так и сообщения в стиле «я люблю феминизм».

Компания изначально писала о том, что бот будет использовать отфильтрованные публичные данные, но, видимо, фильтры не сработали как надо. Microsoft начала чистить ленту бота от расистских и хейтерских высказываний.

Рассказать

ЖК «Новая Пересыпь» Продажи Квартир

Читайте также