Жёпь ебрило

Оказывается, ЧАД-ЖПТ пытались научить умножению традиционным способом, т.е. самоваром и паяльником.
И оказалось, что оно сначало научилось умножать маленькие числа, но не могла большие. Когда ее помучали еще, она стала лучше умножать большие, но не всегда - продолжая делать ошибки.
Таким образом надежда, что с помощью анализа кучи пиздежа ИИ может создать какую-то модель мира, по поводу которого этот пиздеж, скорее всего тщетна. Ибо она даже такую базовую концепцию, как умножение, не может освоить, сколько примеров ей ни дают. Но зато научилась складно пиздеть.
Также демонстрирует несколько соображений. 1) Чисто зубрежкой и запоминанием простых ассоциаций можно научиться складно пиздеть и создавать видимость осознания и понимания. Его не имея. Это я, собственно, уже это знал по студентам 2) У меня подозрение, что 99% человеческой деятельности работает по такому принципу 3) Скорее всего прав упрямый Пенроуз - с помощью классических вычислений понимания, и родственного ему сознания не достичь.
|
</> |