Нейронка + вики - базовый логический каскад

топ 100 блогов kvisaz16.11.2024

В общем, понятно, что софт "нейронка" + "вики" - это тот минимальный комплект, который уверенно бы решил проблему и с кучей галлюцинаций, и с недостаточностью знаний в моделях.

Откуда мне взять столько митохондрий, сахара или что там требуется для дикой умственной работы, чтобы реализовать все эти простые программы? Остается надеяться, что из всех миллиардов найдется хотя бы один азиат, которые наберет на своей печатной машинке этот простой рецепт.

Мысли вслух, не обращайте. Я все еще в шоке от того, что RAG - это нечеткий поиск, то есть весьма узкий инструмент. Давайте все по новой, давайте к корням и точный поиск вхождения.

Вот так я вижу примерный алгоритм "нейронного чата с вики-накачкой":

1. Обработка ключевиков из изначального промпта юзера
классическое программирование: Любой ввод юзера оборачивается в тег SRC (выбор имени тега условен), и предваряется инструкцией
- выдели самые важные ключевые слова из запроса внутри тега SRC и выведи их списком

Нейронка: выделяет список.


2. Поиск данных для обогащения промпта
классическое программирование: список вычленяется и слово за словом формирует подборку статей из Википедии по ключевикам

3. Обработка данных для промпта
классическое программирование:  размер статей сравнивается с размером контекстного окна модели в текущем чате и если они превышают некоторый процент (надо же еще резервировать под другие пункты и ответ), то каждая статья отдельно кидается в нейронку, можно эту же, с командой "краткий пересказ с существенными фактами". Или вообще "список важнейших фактов и цифр".

Нейронка: выделяет список.

4. Обогащение изначального промпта
классическое программирование:  изначальный запрос юзера из тега SRCв п.1 снова кладется в тег , к нему идет подводка- ответь на запрос юзера в теге src, используя свои знания, а также факты из тега DATA

В DATA вкладываются статьи из вики или их краткая сумма.


5. Ответ нейронки на обогащенный промпт 
Нейронка: отвечает по обогащенному промпту.
Ответ будет каким угодно, но не таким, что "Колобок - известная поэма Салтыкова Щедрина" или "Я не могу рассуждать о Штирлице, так как это включает в себя неприятные исторические факты", которые характерны были в 2022 для GPT 3.5, а сейчас для малых домашних нейронок.



Вы спросите, что насчет вырождения чата?

Вырождение чата, дорогие мои юзеры современных чатов, происходит от того, что почти все текущие диалоги с нейронкой строятся по простой схеме "все предыдущие вопросы юзера и ответы нейронки - снова отправляются ей на вход".   Поэтому рано или поздно нейронка, созданная изначально для продолжения текста, начинает сходить с ума или тупеть под влиянием колоссальной истории чата с вопросами и ответов.

Схема, которая описана выше - это "базовый транзисторный каскад", который гарантирует очистку от шумов и защиту от подобных галлюцинаций, так как она не подразумевает повторную отправку вопросов и ответов с каждым новым вопросом.

Но если нужны длинные беседы, то уверен, написать похожие каскады, которые будут

- вычищать из старых вопросов юзера мусор и оставлять только наиболее важные
- включать в отправку предыдущий ответ нейронки только если в теге src будет команда со ссылкой на предыдущий текст (на это надо будет написать отдельный логический каскад)

Вот вам, computing over learning, вот вам перенос тяжести с обучения на синекдоху отвечания, вот вам медленное мышление нейронки и поощрение классических методов поиска информации и работы  с базами данных.

Но если я сойду с ума, чтобы писать самому такое, я сначала напишу автоматического блоггера-новостника.

PS: термин "каскад" по сути означает "ступень" или "шаг", потому "логический каскад" представляется удачным, как "каскады в электронике"

Оставить комментарий

Архив записей в блогах:
Движутся люди, птицы и тени, Тянется жизнь. Прямо от самого моря ступени Тянутся ввысь. Город ступенчат от пенной лодыжки До облачных круч, Он вертикален почти до одышки, Как солнечный луч. 95 лет назад в Баку в семье майора медицинской службы Льва Марковича Лиснянского родилась ...
22. 02. 18. Впору вспомнить " И ты, Брут!". Было время, было! Газету Завтра открывала с дрожью в руках от нетерпения. Кого только там не было на страницах- Шафаревич, Бабурин, Дугин, Кургинян, Бушин, Кара- Мурза, Ямщиков... И, конечно,  фееричнейший главред! Нынче - никого! Разве что ...
Протоколы съезда После убиения Итларя (см. предыдущую серию) « Святополк же и Володимер послали к Олегу, веля ему идти на половцев с ними. Олег же, обещав и выйдя, не пошел с ними в общий поход. Святополк же и Володимер пошли на вежи, и взяли вежи, и захватили скот и коней, верблюдов и ...
Еду с утра на работу и в районе Лубянки наблюдаю такую картину. Бабуля, лет 70-ти, в ярко желтой куртке, уверенно отталкиваясь, едет на самокате! В центре сухо и снега нет, поэтому самокату я не удивляюсь, а вот его хозяйка достойна восхищения. Я искренне рад такому поведению бабули. И х ...
Дорогая картошечка, сегодня ко мне в аську постучался человек, который интересовался откуда я взял тот список с акциями, который был опубликован в начале августа. По словам человека уволили и могут еще кого то уволить. Так вот дорогая картошечка, я вам сам скажу что список акицй был слит ...