Наследница бота-расиста от Microsoft научилась оскорблять


Опубликованно 05.07.2017 22:14

Наследница бота-расиста от Microsoft научилась оскорблять

Новый «умный» чат-бот от Microsoft под названием Zo освоили противоречивые заявления, несмотря на то, что разработчики специально запрограммирован ваш путь от ответа на политические и религиозные темы. Об этом сообщает Engadget.

Если девушка-бот попросили их назвал точку зрения на вопросы здоровья, по какой-то причине Коран «книга жестокие». Не держать кроме того, искусственный интеллект в состоянии, если мнение о смерти Усамы Бен Ладена: по его мнению, «Capture» - это триллер благодаря «лет разведывательных работ».

В Microsoft утверждают, что все недостатки, из которых ЗО все-таки пошел исправил обсуждение запретной темы.

В марте 2016 года еще одно изобретение компании — «Smart» чат-бот Тай — произвел впечатление на пользователей сети. Для бота Twitter-аккаунт был создан, в котором компьютеры девушки общение с пользователями и таким образом мог узнать. Вскоре Тай перенял у Интернет-пользователей расистские взгляды и хвастать такими вещами, как употребление наркотиков от полиции.



Категория: Интернет