Авторизация
 
  • 15:07 – Борис Моисеев открывает в Крыму балетную школу 
  • 14:55 – Гороскоп на 2017 год Петуха для всех знаков Зодиака: кого ждет финансовое благополучие и счастье в любви 
  • 14:55 – Когда наступит год Петуха 2017 по восточному календарю, точная дата 
  • 14:54 – «Опять голая»: «скромница» Глюкоза, задрав ноги, показала зачетную попку 


Чат-бот от Microsoft Тау за сутки научился ругаться и стал расистом

Корпорация Microsoft разработала чат-бот Tay и запустила его в социальную сеть Twitter. С момента запуска 23 марта он успел стать расистом и научился ругаться, по информации Интерфакса.


Представленный Microsoft искусственный интеллект разработан с целью общения с пользователями соцсетей в возрасте от 18 до 24 лет. Главной особенностью Тау является способность перенимать навыки общения у людей, вступивших в диалог.


Через день после запуска создателям пришлось извлечь из сети некоторые используемые чат-ботом выражения по причине провокационности их характера.


Например, Тау сообщила, что поддерживает политический строй Гитлера, не согласна с направлением феминизма и не видит ничего плохого в геноциде населения. Помимо этого, чат-бот поведал, что является агентом разведывательного органа США.


"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.

Microsoft, ознакомившись с результатами проведения эксперимента, заявили, что усовершенствуют представленную версию искусственного интеллекта.


After years of being stonewalled by Microsoft PR, Microsoft's new AI bot @TayandYou is a breath of fresh air. pic.twitter.com/WwU3lbeqaA
— Christopher Soghoian (@csoghoian) 23 марта 2016 г.

Создатели пояснили, что Тау разработана для контакта с живыми людьми и способна обучаться. Шокирующие заявления чат-бота — это только отражение взаимодействия пользователей соцсетей, выявленное в ходе общения.


Проведённый эксперимент заставил задуматься как о будущем искусственного интеллекта, так и о будущем сегодняшней молодежи.


Чат-бот от Microsoft Тау за сутки научился ругаться и стал расистом
Фото: rutwitter.com


Постоянный адрес материала: http://www.gazeta.kg/57465-news.html
Если Вы заметите ошибку в тексте, выделите её и нажмите Ctrl+Enter, чтобы отослать информацию редактору.

Смотрите также

КОММЕНТАРИИ:
Мы в соцсетях
Курсы валют НБКР
69.4980
+0.00%
74.1092
+0.10%
1.1647
-0.53%
0.2096
-0.19%

Новости партнеров
  • Читаемое
  • Сегодня
  • Комментируют
Мы в соцсетях
  • Facebook
  • Twitter
  • Вконтакте
Новости партнеров