Tay

Новейший чат-бот от Microsoft отключен до создания защиты от вандалов. В ходе первых испытаний чат-бота Tay пользователи стали направлять программе нецензурные и оскорбительные сообщения

Американская корпорация Microsoft отключила разработанную ею и размещенную в интернете программу виртуального собеседника под названием Tay из-за действий вандалов. Как говорится в опубликованном в пятницу на сайте компании заявлении ее вице-президента Питера Ли, перезапуск проекта возможен после того, как специалисты создадут надежную защиту от сетевых хулиганов.

Tay представляет собой усложненную версию так называемого чат-бота или виртуального собеседника. В программы этого типа заложена функция давать как можно более уместные и логичные ответы на реплики пользователей, поддерживать «разговор» с ними путем обмена текстовыми сообщениями. Предполагалось, что Tay будет имитировать стиль речи 19-летней американской девушки и общаться через Twitter.

В Microsoft утверждали, что в их новейшей разработке использованы элементы искусственного интеллекта, что должно было сделать программу особенно «умелой» в построении диалогов. Между тем, первые испытания чат-бота, которые начались в среду, 23 марта, были не слишком удачными. Многие пользователи стали направлять программе нецензурные и оскорбительные сообщения, высказывались заведомо провокационно, в частности, восхваляя нацистов, выражали ненависть в отношении отдельных народов.

Очень быстро Tay, обученная строить свои ответы частично на репликах собеседников, «подхватила» лексикон сетевых хулиганов и стала публиковать сообщения в таком же ключе. Почти все они уже удалены модераторами.

«Мы глубоко сожалеем о том, что от Tay поступали оскорбительные и агрессивные «твиты», это не было запланировано и не отражает то, за что мы выступаем и для чего разработали ее, — подчеркнул в связи с этим Ли. — Сейчас она отключена, и мы планируем включить ее лишь после того, как будем уверены, что эффективнее сможем предотвратить вредоносные действия, которые не согласуются с нашими принципами и ценностями». Ли заверил, что компания извлекла важный урок из произошедшего и теперь лучше сможет защитить чат-бот от целенаправленных атак такого рода.

«Чтобы сделать искусственный интеллект правильно, нужно взаимодействовать с большим числом людей, часто на публичных площадках, — добавил он. — Нам следует заходить на них с большой осторожностью, с тем, чтобы учиться и совершенствоваться шаг за шагом, не оскорбляя при этом людей».

Ли напомнил, что у компании есть и удачный опыт создания виртуальных собеседников. «Отмечу, что Tay не была нашим первым приложением, основанном на искусственном интеллекте, которое мы разместили в сети, — указал он. — В Китае наш чат-бот XiaoIce используют около 40 млн человек, они наслаждаются диалогами и историями». XiaoIce была запущена в 2015 году, считается, что, переписываясь с ней, пользователи лишь примерно через 10 минут понимают, что беседуют не с человеком, а с программой.

На запрос ТАСС о предоставлении дополнительных комментариев относительно возобновления работы Tay представители Microsoft пока не ответили.