Tay

Менее чем через сутки с начала работы искусственного интеллекта Tay от Microsoft разработчикам пришлось остановить его работу из-за оскорбительных сообщений бота. Об этом сообщает The Next Web.

Изначально в Microsoft намеревались создать чат-бота, который мог бы общаться с людьми от 18 до 24 лет. Разработчики рассчитывали, что Tay будет совершенствоваться в «разговорном понимании» путем «легких и веселых бесед». Однако пользователи стали использовать его способность к самообучению.

Вскоре бот узнал про Адольфа Гитлера и обвинил США в терактах 11 сентября. Он также успел поддержать геноцид и возненавидеть феминисток.

Несмотря на то что у бота были модераторы, он все равно успел опубликовать много подобных твитов. После этого сотрудники Microsoft удалили почти все твиты Tay и опубликовали прощальное сообщение.

Разработчики рассказали, что не все из более 96 тыс. сообщений бота принадлежат ему, некоторые он копировал у других пользователей, выполняя команду «повторяй за мной».

Источник: Газета.ру