Миллион токенов на пальцах

топ 100 блогов kvisaz30.04.2023 Я теперь согласен, что употреблять слово "промпт" вместо "запрос" - некрасиво.

Почитал я телеграмы тех, кто занимается нейронками. Язык испорчен безнадежно жаргонизмами, пишут так:

- на последнем слое модели над каждым выходом [mem] токенов берем hidden state Для обработки второго сегмента мы берем hidden state с выходов берта с первого шага над каждым [mem] токеном и добовляем эмбеддинги токенов второго сегмента.

Вот честно, лучше бы формулу писали или код на Python, было бы лучше. Человек при этом пишет "объясняю на пальцах", видимо, думая, что сделал более простое объяснение. Мне видится так - человек пересказал для себя на понятных ему жаргонизмах, поэтому для него это действительно простое.

Простое универсальное объяснение мне лично видится таким:

- Чтобы как-то расширить объем вводимого текста в нейронку без чудовищных расходов памяти, мы можем сделать так:
1. разбиваем огромный текст на небольшие кусочки
2. каждый кусочек прогоняем через трансформер и формируем некий конспект - на уровне нейронки это будет какой-то набор чисел-весов.
3. при каждом таком прогоне к каждому кусочку текста после первого добавляем конспект от предыдущего.

Что получаем? Правильно - какой-то бледный, компактный, очень высушенный, но все же след самого первого, и второго, и третьего кусочка текста в нашей последовательности на миллион, два миллиона и так далее символов (объем с таким подходом не ограничен).

Это не гарантирует, что чатбот на уровне пользователя сумеет рассказать все мелкие детали из начала "Гарри Поттера" (если до этого он его не знал вообще) или другой книги, на которой он не учился, но которую засунули ему во ввод радостные пользователи.

Но он с высокой вероятностью, как человек, вспомнит что-то базовое
- Ну это, как там его, Бурсли его кормили, а жили он в клетушке на чердаке, или в чулане, или в собачьей будке.

Это все равно намного лучше, потому что сейчас после миллиона... да что там, после тысячи слов на кириллице чат-бот вообще не помнит ничего. Тут хотя бы какой-то бледный, но контекст. Память, близкая к человеческой. Вот когда он в деталях будет миллион символом запоминать.... Тогда в него можно будет, как в топку, кидать книги с криками
- Найди мне всеобщую теорию всего! Перескажи все это для детей! Найди схему рабочей антигравитации!

Я клянусь, что стану чище и добрее, и не буду впредь использовать слово "промпт" и другие жаргонизмы никогда.

Оставить комментарий

Архив записей в блогах:
Блять, никогда не думал что купить почти четырехлетнему сорванцу выходные брюки, белую рубашку и мокасины такая жуткая проблема. И везде, везде - либо гавно либо какие-то безумные цены. Причем, я посмотрел и на девчачью одежду - большинство ...
А я как Алиса в стране чудес - все уменьшаюсь и уменьшаюсь!С днем рождения, Давид!!! ...
По-моему, мило: В первом лагере — неистовая Ольга Чигиринская (страстная писательница из Днепропетровска, сочиняющая романы на русском, языке «ватников» и «колорадов»), киевский писатель и журналист Владимир Аренев (мы когда-то дружили, хотя после того, как он со страниц московского жур ...
Добрый день, уважаемые. Вот читаю некоторые посты-муж купил мотоцикл, а куча кредитов; не понимает; не помогает и т.д. Многие советуют в комментах оставить мужа в покое, он добытчик, он устает, ему нужно хобби (много денег, няня, вилла на Багамах и опахало-нужное зачеркнуть). Частично я ...
Один чувак сказал, что он всех женщин поздравляет с 8 марта. В основном, конечно, жену, маму, сестру, коллег по работе. Но когда он говорит, что "всех женщин", то есть исключения, которые он ни за что в жизни поздравлять не будет. Давайте ознакомимся с ...