Пользователи Twitter научили бота расизму всего за один день

Компания Microsoft запустила простенького самообучающегося Twitter-бота с искуственным интеллектом, который тут же попал в плохую компанию.
1 433 25.03.16 09:52
fake Created with Sketch.
Так выглядит Tay
Так выглядит Tay

Бот Microsoft по имени Tay создавался с целью проведения исследования о том, как искусственный интеллект может участвовать в диалоговом общении и обучаться, взаимодействуя с людьми.

Чем больше пользователи общаются с ботом, тем больше он узнает, и тем совершеннее становятся его навыки общения и понимания различных тем и контекстов.

Tay задумывалась разработчиками как инструмент общения с молодежью в возрасте от 18 до 24 лет.

И вот, бота наконец-то запустили, и все вроде бы шло хорошо, пока юзеры не стали задавать ему некорректные вопросы, вроде "Как ты относишься к евреям?".

Потом люди и вовсе стали просить Tay повторять за ними расистские и оскорбительные фразы.

"Буш устроил 11 сентября, а Гитлер лучше справился бы с работой, чем обезьяна, которая сейчас у нас есть. Дональд Трамп - единственная наша надежда"

В результате, через очень короткое время бот уже генерировал антисемитские шутки и даже вступал в перепалку с другими пользователями Twitter.

" Был ли Холокост? - Его придумали"

Этот небольшой эксперимент говорит о многом, несмотря на то, что продолжался совсем недолго.

Становится одновременно и смешно, и грустно от того, что люди так быстро могут заразить глупостью и невежеством даже незамутненный искусственный разум.

Так выглядит Tay
Смиренная прихожанка церкви свидетелей Кивы, покровительница юродивых и блудливых

Рекомендуем

follow follow