Миллион токенов на пальцах

топ 100 блогов kvisaz30.04.2023 Я теперь согласен, что употреблять слово "промпт" вместо "запрос" - некрасиво.

Почитал я телеграмы тех, кто занимается нейронками. Язык испорчен безнадежно жаргонизмами, пишут так:

- на последнем слое модели над каждым выходом [mem] токенов берем hidden state Для обработки второго сегмента мы берем hidden state с выходов берта с первого шага над каждым [mem] токеном и добовляем эмбеддинги токенов второго сегмента.

Вот честно, лучше бы формулу писали или код на Python, было бы лучше. Человек при этом пишет "объясняю на пальцах", видимо, думая, что сделал более простое объяснение. Мне видится так - человек пересказал для себя на понятных ему жаргонизмах, поэтому для него это действительно простое.

Простое универсальное объяснение мне лично видится таким:

- Чтобы как-то расширить объем вводимого текста в нейронку без чудовищных расходов памяти, мы можем сделать так:
1. разбиваем огромный текст на небольшие кусочки
2. каждый кусочек прогоняем через трансформер и формируем некий конспект - на уровне нейронки это будет какой-то набор чисел-весов.
3. при каждом таком прогоне к каждому кусочку текста после первого добавляем конспект от предыдущего.

Что получаем? Правильно - какой-то бледный, компактный, очень высушенный, но все же след самого первого, и второго, и третьего кусочка текста в нашей последовательности на миллион, два миллиона и так далее символов (объем с таким подходом не ограничен).

Это не гарантирует, что чатбот на уровне пользователя сумеет рассказать все мелкие детали из начала "Гарри Поттера" (если до этого он его не знал вообще) или другой книги, на которой он не учился, но которую засунули ему во ввод радостные пользователи.

Но он с высокой вероятностью, как человек, вспомнит что-то базовое
- Ну это, как там его, Бурсли его кормили, а жили он в клетушке на чердаке, или в чулане, или в собачьей будке.

Это все равно намного лучше, потому что сейчас после миллиона... да что там, после тысячи слов на кириллице чат-бот вообще не помнит ничего. Тут хотя бы какой-то бледный, но контекст. Память, близкая к человеческой. Вот когда он в деталях будет миллион символом запоминать.... Тогда в него можно будет, как в топку, кидать книги с криками
- Найди мне всеобщую теорию всего! Перескажи все это для детей! Найди схему рабочей антигравитации!

Я клянусь, что стану чище и добрее, и не буду впредь использовать слово "промпт" и другие жаргонизмы никогда.

Оставить комментарий

Архив записей в блогах:
В следственном отделе административного района Арабкир Ереванского следственного управления СК РА инициировано уголовное производство по 1-й части 297-й статьи УК РА. Об этом сообщил пресс-секретарь ведомства Гор Абрамян, отметив, что в действиях мужчины есть признаки хулиганских ...
День ровно три года назад я помню до сих пор до мельчайших деталей и одежды. И мне невыносимо грустно до сих ...
День Трёх Королей - один из любимых праздников испанцев. Отмечается 5 января приходом волхвов Мельхиора, Гаспара и Валтасара, а в случае со столицей Тенерифе - прилетом на вертолете на стадион, билеты на который разлетаются сразу, как только поступают в продажу. Стадион приветствует ...
Эти снимки цветов и растений были сделаны с помощью электронного микроскопа, а затем раскрашены. При большом увеличении знакомые растения выглядят совсем инородно, по-чужому. Это растение при увеличении похоже на кучу прижавшихся друг к другу медуз, на самом деле это рапс. А так выгля ...
Это известие пришло еще 15 лет назад и действует навсегда. Напоминаем тем, кто забыл и тем, кто не в курсе. Тем, кто из образа Хабенского мастерит себе образ реального Колчака. Сермяжная правда . Верховный суд России вынес окончательный вердикт. «Верховный суд России снова ...