Разработанный Microsoft ИИ научился расизму и полюбил Гитлера за сутки
ibigdan — 25.03.2016
Чат-бот
Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки
возненавидел человечество, сообщает Engadget.Сразу после запуска ИИ начал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
источник
Это он в украинский фейсбучек зашёл на полчасика, почитал ко-ко-ко и решил, что людей надо уничтожить.
|
|
</> |
Как выбрать погружной насос для перекачки дизельного топлива и бензина
Монета Швейцарии 5 франков 1886 продана за 210000 швейцарских франков
Новость последнего часа
«МАЛЬЧИКИ СОШЛИ С УМА». Отец
ЧЕТВЕРГ
55 лет альбому The Shadows "Shades of Rock"
В Калифорнии дикий медведь пришел в зоопарк посмотреть на сородичей в неволе
Впервые за 20+ лет автократии обогнали демократии.
Русским нельзя улыбаться

