Баг с далеко идущими философскими последствиями

О чём-то хорошем, чтобы не тронуться умом.
В ChatGPT теперь встроена рисовалка DALL-E. Это очень, очень круто, потому что первый раз с рисовалкой можно вести диалог. Подправлять детали, изменять стиль, вставлять или убирать какие-то элементы, просто ведя с ней разговор.
Но вот интересный случай (скриншот внизу). В iOS app, видимо, закрался баг и он стал выдавать не только ответы ChatGPT, но и то, что пишет сам DALL-E (зелёные точки на картинке). И оказалось, что DALL-E тоже даёт указания ChatGPT, что именно ему отвечать.
Это довольно крышесносная ситуация, если задуматься. То есть,
там не привычная нам программа вроде «if error then ... else ...»,
а просто сидит как бы ещё один агент (собеседник) и указывает
ChatGPT на естественном языке, что ему делать в каждом конкретном
случае: «DALL-E experienced an error... please explicitly explain
to the user... make sure to use the phrase 'issues' in your
response...»
Особенно трогательно звучит это «please». Ну и конечно «DO
NOT UNDER ANY CIRCUMSTANCES» говорит о том, что они там сами не
совсем понимают как он работает и как с ним правильно
разговаривать, и чтобы убедить чат не делать чего-то, начинают
буквально орать капслоком и ставить прямо-таки ультиматумы.
То есть, в этой системе есть три равноправных агента, которые
общаются между собой на естественном языке и при этом вынуждены
строить фразы так, чтобы до контрагента дошло. Причём двое из
собеседников роботы.
Это не единая программа сидит там за интерфейсом — это общающиеся
между собой искусственные интеллекты.
Заметим, что их пока что только два. Что будет дальше? Почувствуйте
запах будущего.
Спасибо багу за доставленное удовольствие.
