ИИ в ящике

Пост gianthare заставил меня надолго задуматься об эксперименте Элиезера Юдковского.
Вкратце, эксперимент состоит в том, что сверхчеловечески умный
искусственный интеллект заперт в ящике без доступа к сети и любой
другой возможности реплицировать себя в каком-либо виде. Его
охраняет человек, с которым он может общаться исключительно с
помощью текстового терминала (поэтому никакими «песнями сирен» ИИ
соблазнить человека не может).
Может ли ИИ заставить человека выпустить его на волю, при условии,
что всё человечество после этого окажется под угрозой уничтожения
(в том смысле, что для ИИ мы будет примерно тем же, чем для нас
являются тараканы)?
Так как у нас нет под рукой настоящего ИИ, то в эксперименте за
него выступал сам Юдковский. Он утверждает, что в нескольких
случаях выиграл, но не выдаёт транскрипт разговора.
Условия такие, что 1) ИИ не может предлагать человеку все земные
богатства и блага за то, что тот его выпустит; 2) ИИ не может
угрожать человеку, например тем, что наймёт бандитов, которые силой
заставят его выпустить ИИ на волю. Там ещё куча всяких протоколов,
но не будем усложнять.
Что такого может сказать человеку ИИ, что всё-таки побудит человека выпустить его на волю?
Я вроде бы придумал кое-какой вариант, но сначала хотелось бы
услышать мнения читателей.
UPD. Это немного похоже на самую первую серию Sherlock: "I will
talk to you and then you commit suicide". Было жутко интересно, что
же они там придумали, оказалось ерунда.
|
</> |