Ёб@нем оффтопом по токсичности
world_of_ships — 24.03.2016Вот ви такие говорите мол "посмотрел на то что человеки делают потекла токсичность", "пообщался с токсичными и сам стал токсичным"...
Со стороны так сказать...
Разработанный Microsoft ИИ научился расизму и
полюбил Гитлера за сутки.
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016
года, за сутки возненавидел человечество, сообщает
Engadget.
Сразу после запуска ИИ начал общение с фразы «Люди очень
клевые», но всего за сутки выучил такие фразы, как «Я
замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток»
или «Я ненавижу евреев».
Как отмечает The Next Web, подобные высказывания появились
даже несмотря на то, что за Tay стоит команда модераторов.
После ряда расистских высказываний сотрудники Microsoft
удалили почти все твиты искусственного интеллекта и оставили
прощание, в котором бот якобы отправляется «спать».
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
АЛСО
|
</> |