lytdybr

За эту неделю было много содержательных приключений. Скажем, вы говорите "хочу иметь SoTA каких-то традиций", а там в ответ "а как вы будете сравнивать эти традиции?" -- и тут начинаешь отделять те самые методы от традиций, традиции от дисциплин и т.д., а затем вводить измерения их всех (ибо сравнить -- это измерить, хоть и на ординальной шкале). FPF имеет микроядерную архитектуру, где микро-ядро, а к нему предполагается много-много плагинов архитеорий (трансдисциплинарных/фундаментальных теорий). Вот то, что я делаю -- это помощь в автоматизации написания и отслеживания таких плагинов. А потом? Конечно, будут прикладные плагины: у кого-то выращивание генномодифицированных цветов, а у кого-то разработка фотонных чипов. Описано ли это в самом FPF? Конечно, вся часть A как раз описывает эту плагинную архитектуру. Вот тут обновляемая постоянно версия, я планирую закончить эту часть работы (разрабатывается часть G) где-то к концу недели: https://disk.yandex.ru/d/N2xaJZWo-hhFYw (доделать часть G, а потом по ней сгенерировать SoTA рационализма примерно так, как это понимается в нынешнем руководстве по интеллект-стеку, а то и в более современном виде. Поглядим, как это получится, в том числе как это получится сделать за оставшуюся часть недели).
У FPF случился первый форк: компиляция в 6 страниц математического текста: https://github.com/Pratar/GIOS, сделал Mikhail Nazarenko. Сделано на какой-то старой версии FPF (так, там используется ещё непочищенное дидактическое room вместо Context, это уже неделю как почищено). Михаил сделал синтетический датасет для какого-то своего класса задач, на котором проверял работоспособность его варианта компиляции. Заявленная цель была -- ужать FPF "в математику" так, чтобы этот остаток помещался в контекст (причём необязательно даже в большой контекст GPT-5 Thinking или Pro, который сейчас в варианте ChatGPT составляет 196К, из которых 110К отдаётся сразу на подгрузку файлов RAG. Как я понял, можно с таким работать и чему-то попроще-побыстрее). У нас вышел интересный разговор с Михаилом по поводу целей FPF и моего отношения к сжатию (я тоже ведь планирую сжатие, но совсем не такое. Ну, и завет разработчиков про "оптимизация потом"). Этот разговор -- в чате поддержки рабочего развития, с https://t.me/systemsthinking_course/33719. Любое сжатие (любое-любое!) — это всё-таки сжатие, то есть ужимаются не только дублирования (их там куча), но и некоторые ходы, которые позволяют отвечать на какие-то классы вопросов. Моя любимая байка про IBM Watson, который выиграл Jeopardy!, причём я лично участвовал в той встрече онтологов, где был этот диалог. Там спросили, почему люди в IBM не кодируют википедию в виде онтологии/knowledge graph (по сути -- не формализуют википедию), а используют полнотекстовую обработку? Ответ был таков, что вопросы они не могут предопределить, а любое сжатие информации/формализация/схематизация/моделирование -- потеря ответа на какой-то неожиданный вопрос, ибо вопрос может быть про важное для спрашивающего, но неважное для формализатора. На удивление онтологов, что работа с полными текстами без их кодирования/сжатия в виде формальных представлений требует диких вычислительных мощностей, они ответили "так ровно поэтому IBM Watson -- это прежде всего суперкомпьютер!". Все эти соображения остаются верными и сегодня. Если не очень понятна цель, то чересчур сжатые формализации быстро оказываются бесполезными в тот момент, когда цель становится ясной и оказывается не той, которая была при формализации.То есть сжатий вроде GIOS тоже может быть некоторое количество разных, у них будет разное качество ответов на разные классы задач. Так что надо рассматривать не этот GIOS сам по себе, а в контексте каких-то задач. Скажем, по моему тексту ещё и людям можно разобраться (хотя с трудом по сравнению с текстами руководств), а по тексту GIOS, похоже, уже нельзя. Но, конечно, можно сгенерировать и руководство, но оно будет уже по части материала, который уже есть в FPF и в нём есть риск галлюцинаций. В любом случае, очень полезный эксперимент. Хотя бы тем, что он есть. Хотя это материал, скорее, не рабочего развития, а исследовательского развития, но вроде Михаил его применяет не в исследовательских, а в рабочих целях. У Михаила простой промпт по улучшению текстов с помощью GIOS: "Посмотри на текст с точки зрения GIOS. Переделай его чтобы он был конформен GIOS, не используй термины GIOS в переделанном тексте". Вот такое же можно делать и с FPF.
На методсовете обсуждали сегодня, чем работа с FPF отличается от работы по какому-нибудь программированию кастомных рассуждений для LLM вроде обсуждаемых в https://t.me/llm_under_hood. Условно говоря, отличается тем же, чем DDD отличается software engineering: там основной разговор всё-таки не про софт, а про domain, который затем driven проектирование софта. Software engineering же и архитектура начинаются потом, после срабатывания DDD. Вот FPF работает в той самой зыбкой предметной области проблем (есть даже специальный паттерн "C.22 — Problem-CHR: Problem Typing & TaskSignature Binding"), boundedContexts (те самые из DDD), нестыкующейся терминологии из разнообразных "вертикалей" (silo), голословных заявлений (где непонятно, что там "в проекте", что "сделано", что "сделано, но не проверено", что "только гипотеза") и прочего месива, из которого растут рабочие проекты, а также R&D как фундаментальные, так и прикладные. Наши руководства рабочего развития более-менее успешно учат разбираться с этим месивом даже гуманитариев, а FPF с одной стороны учит разбираться с этим LLM, то есть представляет собой код экспертной системы, которая привносит культуру мышления в помойку мышления LLM. Хорошо, если у вас математическая задача: LLM сегодня отлично выдрессированы на математическую работу и на поиск ошибок в физических статьях или ошибок в химических формулах. А если у вас междисциплинарность, то как избежать того, что из мыслительной помойки вам не расскажут абсолютно системным языком какую-нибудь психоастрологию? И тут ещё поворот от "аналитики" как поиска ошибок и "глубокого понимания" к синтезу, к творчеству, к агентности и творческому началу. Как развернуть мысль не в критику, а "конструктивную критику", где тебе предлагают не диагностику "вот тут у тебя ошибка", а правку "вот надо сделать вот так, ибо у тебя тут не сработает потому-то, а с правкой сработает потому-то"? Вот мы наших инженеров-менеджеров на это нацеливаем, и FPF будет нацеливать туда LLM.
Но есть и другая сторона: FPF может быть прочтён человеком, там можно разобраться. Это вполне человекочитаемое руководство, хотя в отличие от текущих наших руководств для живых людей это "трудночитаемое руководство", там эдакий "псевдокод", больше похоже на текст статьи по математике, онтологии, семантике, эпистемологии, всё в одном флаконе. Более того, если даже читать будет LLM, то в FPF прописано "мышление письмом" для LLM, можно попросить нежить выдать промежуточные результаты её окультуренного "мышления на базе первых принципов", чтобы разобраться в происходящем "под капотом". Конечно, это требует от инженеров-менеджеров некоторой мыслительной квалификации, ибо это "FPF under hood", надо разбираться как FPF устроен (и ещё немного понимать, как устроена LLM с её софтовой обвязкой в форме AI-агента). Наши руководства МИМ для получения этой нужной мыслительной квалификации сейчас вполне подходят, там достаточно внимания уделяется именно развитию фундаментального мышления, хотя и немного другого формата. После освоения мышления по нашим руководствам, FPF воспринимается как просто "ещё одна предметная область". Про то, какая именно это "ещё одна предметная область", чем отличается от изложенной в наших руководствах, подробней буду говорить на семинаре 4 октября 2025, писал об этом тут: https://ailev.livejournal.com/1776026.html. Инженеры-менеджеры в эпоху бурного цветения LLM будут учить уму-разуму (например, не полагаться на SoTA астрологию) не только своих живых сотрудников, но и нежить. Некоторые уже сегодня этим заняты. Вот это и есть фронтир, об этом и рассказываем (а мой проект по переносу культуры сильного трансдисциплинарного/фундаментального мышления в форме FPF -- это демонстрация того, что мы что-то в этой сфере и сами можем, демонстрируем не рассказы, а работающий "код для LLM", да ещё и разработанный при помощи этой LLM).
Из светской хроники: Виталий Ванчурин, который раз в неделю писал текст, что LLM нельзя доверять, и что любой студент-третьекурсник лучше, вдруг поработал пару выходных дней с GPT-5 Pro и выполнил месячную норму физико-математической работы за эту пару дней (два дня на работу 20 рабочих дней в месяце, те же x10 по производительности, что и у всех: и у меня такая оценка была, и у Гриши Сапунова, на наших классах задач это сейчас общее). И Виталий даже написал некоторый текст, говорящий о развитии физики через широкое использование AI: с https://t.me/theworldasaneuralnetworkchat/1364. Там сразу: "1. The future of fundamental research in physics lies with AI agents. We are on the verge of having tools that are genuinely useful for fundamental physics, and they will soon be developed. Either you learn how to use these tools, or you are out. 2. The amount of garbage generated by AI will grow exponentially. The hallucination problem is fundamentally impossible to eliminate, and the resulting mistakes could be difficult to detect. Either you learn how to identify and correct mistakes, or you are out". Ну, и так далее, включая определение vibe physics примерно такое же, как vibe coding.

|
</> |