ИИ до сих пор не обладает сознанием, но есть МОМЕНТ

Самый известный аргумент против сознания и понимания ИИ — это Китайская комната. В ней моделируется система, проходящая тест Тьюринга. Человек внутри комнаты оперирует закорючками согласно правилам: перемешивает, отнимает одни, добавляет другие, — и отдает за пределы комнаты. Эти закорючки — китайские иероглифы и их читает китаец, который думает, что внутри комнаты кто-то понимает китайский. Но сколько и чего ни делай с закорючками, для тебя они так и останутся закорючками. Важно понимать, что это не аргумент против сознания и понимания ИИ в целом, а против того, что они — это вычислительные состояния. Поэтому никакая программа сама по себе сознание и понимание давать не может. Это если очень кратко.
Сейчас важно обратить внимание на линию критики Китайской комнаты, утверждающей, что Комната изначально не может проходить Тест Тьюринга из-за неспособности отвечать на целый класс вопросов.
Речь об индексикальных вопросах, словом, о вопросах с указанием тут, там, здесь, сейчас и т.д. Разработчики Комнаты не могли знать, каким мир будет через пять минут или 10 лет после ее создания, поэтому она систематически неспособна отвечать на индексикальные вопросы. Но если ее доработать сенсорными выходами (видеокамерой, например), тогда может появиться квазисемантический блок и уверенно отрицать возможность понимания и сознания будет нельзя.
Теперь главное
Классические текстовые LLM — это те же Китайские комнаты. Представьте, что вам дают закорючки, много закорючек. Вы их всяко мешаете — сначала вас много бьют током и редко дают пряник. Но со временем вы стали лучше прогнозировать, какую выбрать следующую закорючку, чтобы не долбанули током, а дали пряник. Понимать смысл этих закорючек вы не начнете, но хотя бы заживете посытнее. LLM тоже не может отвечать на индексикальные вопросы, они все еще не существуют в реальном времени. В отличие от естественного интеллекта, LLM пока не могут взаимодействовать с миром в реальном времени:
Мир не представляет собой саморазмечающихся и самообновляющихся датасетов
LLM неспособены обучаться быстро, на минимальных данных и с минимальными итерациями как естественный интеллект
Катастрофическая забывчивость: «подключишь» к миру и накопленный опыт слетит
Однако!
Мультимодальные LLM — это совсем другое дело. Особенно громогласно о себе заявившая GPT-4o (omni). Подробнее здесь
Благодаря ее (квази)сенсорным способностям, можно считать, что у нее есть квазисемантический блок. Это значит не так много. Сознания и понимания все еще нет. Но это значит, что критика в стиле Китайской комнаты становится менее ощутимой и важной. Думаю, ключевым моментом будет, когда LLM смогут прийти в «настоящесть». Насколько это далеко или близко, не берусь сказать. Но пока многие смотрят на новые фичи и пускают слезу от душевных «понимающих» разговоров, я вижу почти полное отсутствие прогресса у LLM в эту сторону. Возможно, гордиев узел неожиданно будет разрублен роботизацией, отелеснением LLM, а возможно — нет. Ансамбль черных лебедей на роялях в кустах замер в ожидании. Пока же ИИ подтачивает классические антифункционалистские аргументы.
|
</> |