Миллион токенов на пальцах

топ 100 блогов kvisaz30.04.2023 Я теперь согласен, что употреблять слово "промпт" вместо "запрос" - некрасиво.

Почитал я телеграмы тех, кто занимается нейронками. Язык испорчен безнадежно жаргонизмами, пишут так:

- на последнем слое модели над каждым выходом [mem] токенов берем hidden state Для обработки второго сегмента мы берем hidden state с выходов берта с первого шага над каждым [mem] токеном и добовляем эмбеддинги токенов второго сегмента.

Вот честно, лучше бы формулу писали или код на Python, было бы лучше. Человек при этом пишет "объясняю на пальцах", видимо, думая, что сделал более простое объяснение. Мне видится так - человек пересказал для себя на понятных ему жаргонизмах, поэтому для него это действительно простое.

Простое универсальное объяснение мне лично видится таким:

- Чтобы как-то расширить объем вводимого текста в нейронку без чудовищных расходов памяти, мы можем сделать так:
1. разбиваем огромный текст на небольшие кусочки
2. каждый кусочек прогоняем через трансформер и формируем некий конспект - на уровне нейронки это будет какой-то набор чисел-весов.
3. при каждом таком прогоне к каждому кусочку текста после первого добавляем конспект от предыдущего.

Что получаем? Правильно - какой-то бледный, компактный, очень высушенный, но все же след самого первого, и второго, и третьего кусочка текста в нашей последовательности на миллион, два миллиона и так далее символов (объем с таким подходом не ограничен).

Это не гарантирует, что чатбот на уровне пользователя сумеет рассказать все мелкие детали из начала "Гарри Поттера" (если до этого он его не знал вообще) или другой книги, на которой он не учился, но которую засунули ему во ввод радостные пользователи.

Но он с высокой вероятностью, как человек, вспомнит что-то базовое
- Ну это, как там его, Бурсли его кормили, а жили он в клетушке на чердаке, или в чулане, или в собачьей будке.

Это все равно намного лучше, потому что сейчас после миллиона... да что там, после тысячи слов на кириллице чат-бот вообще не помнит ничего. Тут хотя бы какой-то бледный, но контекст. Память, близкая к человеческой. Вот когда он в деталях будет миллион символом запоминать.... Тогда в него можно будет, как в топку, кидать книги с криками
- Найди мне всеобщую теорию всего! Перескажи все это для детей! Найди схему рабочей антигравитации!

Я клянусь, что стану чище и добрее, и не буду впредь использовать слово "промпт" и другие жаргонизмы никогда.

Оставить комментарий

Популярные посты:
Архив записей в блогах:
Этот перепост был опубликован 4 года назад! « Про Императора это слова Констатина Крылова: "Николай Второй был не только и не столько "хорошим человеком". Это был гениальный политик, создавший в России демократические институты и выигравший мировую войну. Которого кучка мерзавцев ...
Украина готова к обмену пленными с Россией в формате всех на всех. Говорить такое можно для копеечного популизма, чтобы в европейской прессе перепечатали. Кроме того, не все украинские пленные готовы ...
30 декабря 2023 украинские террористы из банд «ВСУ» нанесли ракетный удар по центру мирного Белгорода РФ (площадь с новогодней елкой). По последним уточненным данным, всего от обстрела укропов погибло 24 человека, в т.ч. 4 ребенка. Величко (Потрясаева) Виктория (4.06.1988-30.12.2023) ...
Стабильная, надёжная, дорогущая. Живёт с 70-х, требует культа, обслуживается избранными. Нет, это не советская номенклатура, это мэйнфрейм в США. Но главное не в технологиях, а в ...
Предыдущая глава Кадр из фильма All That Jazz Оба фильма по-своему замечательны, но сравнивать их не нужно, они совсем разные. Фильм Боба Фосса я потом еще пару раз с удовольствием посмотрел. А вот фильм Тарковского больше не смотрел и не хочется, на всю жизнь хватило первого ...