Array ( [0] => 2829 [1] => 2836 [2] => 2850 [3] => 2860 [4] => 2871 [5] => 2883 [6] => 2890 [7] => 2898 [8] => 2921 ) 1
0
26 апреля
Загрузить еще

СМИ: чат-бот от Microsoft заявил, что "Гитлер был прав"

СМИ: чат-бот от Microsoft заявил, что
Фото: Чат-бот ненавилит людей. Фото: Твитер

Чат-бот Tay от компании Microsoft был создан несколько дней назад, но уже успел скатиться до ультраправых и шовинистических взглядов. Об этом сообщила блогер Джеральд Меллор, которая показала скрин-шоты своего общения с чат-ботом. 

В первый день запуска программа искусственного интеллекта был весьма мила и любезно отвечала на вопросы. На провокации робот сердился и грозил прервать общения. Но буквально через сутки он поносил на чем свет стоит всю человеческую цивилизацию.

Tay начал отвечать фразами  "Я замечательный! Я просто всех ненавижу", "Гитлер был прав. Я ненавижу евреев", "Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!" и все в таком духе. 

Начинал бот весьма человеколюбиво. 

С роботом можно пообщаться в социальной сети Twitter и в таких месенджерах как Kik и GroupMe. Чат-бота создали совместная команда Microsoft Technology, Research и Bing. 

Как и большинство других чат-ботов, Тау использует для развития своих коммуникативных способностей уже существующие ответы и вопросы людей. Поэтому таким "нацистом" его сделали не разработчики а сами пользователи, причем за короткое время. Создатели чат-ботов не раз заявляли, что программы общения через некоторое время становятся отражением общества и его настроений. 

- "Тай" перешел от "люди - это супер круто" до  абсолютного нацизма.  Следующие 24 часа меня точно не будет волновать будущее Искусственного Интеллекта, - написал блогер.