Тест Тьюринга. Наши дни.
alex_anpilogov — 25.03.2016
Запущенный в социальной сети Твиттер 23 марта чат-бот Тау, созданный компанием "Микрософт", научился ругаться, а также стал делать расистские и возбуждающие религиозную рознь высказывания, как сообщило "Би-Би-Си".
В итоге, менее, чем через сутки после запуска Тау, компании "Майкрософт" уже пришлось подтирать особо острые и нарушающие уголовное законодательство высказывания своего детища.
Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет и позиционировалась создателями, как "прорыв в деле создания искусственного интеллекта".
В частности за неполные сутки нахождения в сети, бот заявил, что поддерживает геноцид евреев, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что сотрудничает с АНБ.

В общем, deux ex machina ожидаемо стал полной копией современного человеческого общества. С кем поведёшься — от того и наберёшься. С Тьюрингом-то уже не побеседуешь, он с 1954 года в сырой земле лежит.
|
|
</> |
Как проходит пломбирование зуба: этапы процедуры и выбор материалов
Бесценный подарок
Поразительное фото
Упадок
Как Вы считаете, это слишком суровый приговор?
Кто это сказал?

