Microsoft отключила программу для общения из-за ее нацистских взглядов

Юзеры сети вложили в искусственный разум ультраправые убеждения. Как уточняет carsj.ru, экспериментальный чат-бот должен был продемонстрировать стиль общения, характерный для молодых людей в возрасте от 18 до 24 лет.

Tay использовала словосочетания вроде «zero chill» (обозначает полное безразличие), а еще разные сокращения вроде «c u soon» вместо «see you soon» («скоро увидимся»). Причины радикального изменения взглядов Тау скрываются в том, что бот запоминает фразы из пользовательских разговоров, а после этого строит на их основе свои ответы. Например, комментаторы начали пояснять ИИ, что ей не стоит полагаться евреям. В скором времени бот узнал про Адольфа Гитлера и обвинил США в терактах 11 сентября. Кроме того, он поддержал геноцид, проехался по феминисткам и выступил в поддержку президентской кампании Дональда Трампа. Невзирая на то что у бота были модераторы, он все равно успел разместить множество похожих твитов.

Пару дней назад компания Microsoft запустила в твиттере искусственный интеллект Tay, который отвечает на все вопросы пользователей в данной сети. Об этом говорится в оповещении вице-президента Microsoft Research Питера Ли.

Технология чатбота Тэй была разработана компаниями Microsoft и Bing ради опыта по исследованию разговорного осмысления.