...останавливает меня от экспериментов с автоматизацией на домашних нейронках

Но как только выйдет следующее поколение локальных текстовых нейронок - непременно! Непременно попробую зарядить схему генерации по сто тысяч анекдотов про Штирлица. Что это за поколение?
Первое поколение локальных текстовых нейронок (считаю с 2023 года) - хорошо мычало на английском, на русском и др языках не телилось вовсе
Второе поколение пошло к концу 23 - начало 24 (так считаю я в классификации текущего поста) - отлично заговорило на английском, стало внятно отвечать на русском, тяжелая нейронка (Command R+) знала про Остапа Бендера
Третье поколение - вот, весна-лето 2024 - Llama 3, gemma 2 - стали хорошо говорить на русском, на английском, судя по отзывам на Реддит, там вообще счастье, по тем же отзывам - третье поколение стало отвечать на редких для нейронок языках - узбекский, польский.
Третье поколение иногда - иногда! - пишет даже интересные читабельные рассказики в духе Роберта Шекли, но отбирать приходится чаще.
15 процентов рассказов в сборнике "Космический Чеддер" было сварено на Gemma 2 27b.

Значит, четвертое поколение в такой системе отсчета будет что-то в духе
- "отлично пишет рассказики в духе Роберта Шекли"
- "уровень качества приемлемых анекдотов про Штирлица поднимется от 1:100 к 1:10"
- в целом будет очень похоже на нынешний GPT4 и явно, заметно, феноменально хорошо превосходить вымерший уже GPT 3.5
Вот на этом этапе можно будет отвлечься от работы и собрать простую схему с обратной связью, то есть "N параллельных запросов до ответа COMPLETED" + "запрос на редактуру и выбор лучшего ответа из M предыдущих"
Если не доживу, просто запомните эту схему. Все, что вам нужно - это параллелизация, массовые попытки и автоматический редактор-отборщик. Отбирать-критиковать всегда проще,
|
</> |