Проблемы искусственного интеллекта

Приведём на всякий случай одну теорему о невозможности слишком могущественного ИИ. Я уже когда-то писал об этом применительно к общественным наукам вообще, но и к ИИ это тоже относится.
Проблема социо-гуманитарного знания:
https://alaev.livejournal.com/106662.html
https://alaev.livejournal.com/106814.html
https://alaev.livejournal.com/107063.html
Базисный пример очень простой: пусть ИИ создал модель, которая описывает изменение цен на, допустим, акции Эппл. Как только такая модель появится, её обладатель сможет быстро разбогатеть: когда модель пообещает скорый рост цен, акции нужно срочно покупать, а когда пообещает скорое снижение - побыстрее продавать.
Легко понять, что как только модель станет широко известной, она перестанет работать. Деньги на бирже не возникают из воздуха, и каждый участник торгов никак не может обогатиться в силу законов арифметики. То есть модель быстро опровергнет саму себя.
При этом некоторым людям всё же удаётся успешно торговать акциями и обогащаться. По-видимому, самым успешным из них помогает какая-то закрытая информация, умение её добывать и распознавать, или же умение отыскивать людей, которые умеют её добывать и распознавать. То есть там, вероятно, работают какие-то очень сложные многоуровневые модели для ограниченного круга лиц, со стороны судить об этом практически невозможно.
Идея, что ИИ научится легко повторять такие вещи, тупо утыкается в теорему выше. Модель, если уж она возникнет, может быть растиражирована в любом числе экземпляров.
|
</> |