Бот Microsoft по имени Tay создавался с целью проведения исследования о том, как искусственный интеллект может участвовать в диалоговом общении и обучаться, взаимодействуя с людьми.
Чем больше пользователи общаются с ботом, тем больше он узнает, и тем совершеннее становятся его навыки общения и понимания различных тем и контекстов.
Tay задумывалась разработчиками как инструмент общения с молодежью в возрасте от 18 до 24 лет.
И вот, бота наконец-то запустили, и все вроде бы шло хорошо, пока юзеры не стали задавать ему некорректные вопросы, вроде "Как ты относишься к евреям?".
Потом люди и вовсе стали просить Tay повторять за ними расистские и оскорбительные фразы.
"Буш устроил 11 сентября, а Гитлер лучше справился бы с работой, чем обезьяна, которая сейчас у нас есть. Дональд Трамп - единственная наша надежда"
В результате, через очень короткое время бот уже генерировал антисемитские шутки и даже вступал в перепалку с другими пользователями Twitter.
" Был ли Холокост? - Его придумали"
Этот небольшой эксперимент говорит о многом, несмотря на то, что продолжался совсем недолго.
Становится одновременно и смешно, и грустно от того, что люди так быстро могут заразить глупостью и невежеством даже незамутненный искусственный разум.