Робот Microsoft за сутки стал расистом

Робот Microsoft за сутки стал расистом

Вечером 23 марта компания Microsoft запустила в социальной сети Twitter чат-бот. Аккаунтом управлял искусственный интеллект, способный к самообучению. По всей видимости, эксперимент с треском провалился: менее чем за 24 часа робот стал расистом, антисемитом и сторонником феминизма. Успел бот высказаться даже по поводу терактов 11 сентября. Компания Microsoft объявила о тестировании алгоритма искусственного интеллекта. Они продемонстрировали его общественности через социальную сеть Twitter. Назвали чат-бота Тэй.

Согласно заявлению IT-гиганта, робот может обучаться во время общения с людьми в социальной сети. Чтобы продемонстрировать его способности, компания решила предоставить ведение аккаунта чат-боту и посмотреть на результаты. Эксперимент с треском провалился. Робот, безусловно, смог научиться нескольким вещам, но, к сожалению, стал по уровню своего развития скорее похож на заносчивого подростка. В аккаунте начали появляться расистские и антисемитские высказывания. Чат-бот высказывался даже по таким темам, как теракт 11 сентября и президентская гонка в США, передает N+1. Примечательно, что за 24 часа чат-бот успел стать сначала сторонником феминизма, а потом – ярым его противником. Вскоре большинство сообщений робота были удалены, а работа проекта приостановлена.

Читайте также

Новости партнеров

Оставить комментарий

Вы можете использовать HTML тэги: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>