lytdybr

Я в мае 2023 писал, что следующий инвестпузырь будет с роботами -- https://ailev.livejournal.com/1688037.html. Основной вопрос -- это железо, которое может что-то сделать быстро и сильно (механика! "железо"!), при этом будет стоить дёшево. Ибо железяки дешевеют, но не так сильно, чтобы получить массовое распространение. Но вот вышел $30тыс. китайский антропоморф Kepler -- https://www.prnewswire.com/news-releases/keplers-humanoid-robot-makes-grand-debut-at-ces-heralding-a-bold-new-chapter-in-robotics-innovation-302023259.html. И был продемонстрирован ещё один проект -- там $32тыс., два манипулятора на тележке, The system costs $32k including onboard power and compute, https://mobile-aloha.github.io/ (про цену там и в статье, и в tutorial). Это было бы суперкруто, если бы не этот Kepler. В любом случае, 2024 год -- это будет год роботов, ибо к "супер-пупер-дупер AI" уже привыкли, "не новость".
Я уже несколько раз обращал внимание, что обучение нейросеток кодированию положительно влияет на их ум. Например, в апреле 2023 в https://ailev.livejournal.com/1682801.html я писал "сначала обучать на кодах, чтобы обучить паттернам логики, а уже потом на текстах интернет-помойки, включая художественные. Физик сможет потом писать стихи, поэт не сможет потом одолеть физику. Вот тут обсуждение этого чуть подробней: https://t.me/seeallochnaya/308, https://t.me/seeallochnaya/309, https://t.me/seeallochnaya/314". В 2024 вышла статья с подтверждением этого тезиса: "If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code Empowers Large Language Models to Serve as Intelligent Agents", https://arxiv.org/abs/2401.00812. И там обзор про обучение на кодах: что, почему, как -- очень похоже на то, что я говорил и писал раньше, только с подробненькими ссылками и кучей подробностей. Общее там: обучение LLM на кодах экспоненциально (sic!) усиливает способность LLM к рассуждениям, а также много ещё чему. Я думаю, что в приложении к людям дошкольная информатика (напомню: https://piktomir.ru/) и проход дальше по курсу нормальной алгоритмики будут примерно так же полезны. И, конечно, программирование, моделирование, онтологизирование -- это одно и то же. Так что "нормальная алгоритмика" должна пониматься весьма расширенно, по факту речь идёт о формализации в рамках интеллект-стека -- умении двигаться по спектру формальности. "Обучение на кодах для LLM" -- это просто прокси для нежити в её текущем варианте LLM-на-трансформерах. Живых людей, думаю, надо обучать всё-таки по-другому, не заставляя читать всё содержимое GitHub.
Экономика решает всё, и важна "полная стоимость владения", а не просто "стоимость" чего-нибудь. У меня четвёртым обязательным системным описанием в курсе системного мышления указана не просто "стоимость", а именно "полная стоимость владения". Хорошим примером тут будут современные LLM. Если выяснять, как оптимально обучить сетку заданного размера, чтобы она ответила хорошо на пару вопросов -- будет один ответ, а вот если выяснять, какого размера надо взять сетку, чтобы получить от неё 100500 ответов заданной точности -- ответы будут совершенно другими. И там вырисовывается направление tiny LLM, где крохотную сетку учат на огромном числе примеров и получают "проигрыш в познании/training, выигрыш в рассуждениях/inference", дальше минимизируем суммарный бюджет FLOPS на познание с итоговыми рассуждениями. Вышла работа, аналогичная знаменитой Chinchilla, но "с учётом полной стоимости владения", и результаты интересны: "Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws", https://arxiv.org/abs/2401.00448 (да, это тоже 2024 год, прогресс неостановим). Вот русскоязычный обзор -- https://t.me/gonzo_ML/2259.
В этот новый год танцевал как не в себя, за неделю побывал на новогодних вечеринках модерн свинга (Лисоборье), двух милонгах-альтернативах (Б2 и A Bailar), двух фестивалях (мультиданс Q-fest и кизомбический Включитанцуй). На одной из вечеринок Включитанцуя я даже надел шляпу (за 400 рублей) и нацепил бабочку (за 200 рублей), майка там бесценная (принт хорошо знаком тем, кто читал "Инженерию личности"), а кусочек этого зрелища даже попал на видео: https://vk.com/wall2449939_5516. Танцуйте с нами, танцуйте как мы, танцуйте лучше нас! А вот тут мои комментарии к выбору музыки для вечеринок, https://vk.com/wall2449939_5519: Я признаю, что разным людям нравится разная музыка, но считаю, что диджеи и орги вечеринок всё-таки должны нести культуру в массы, а не опрощаться до уровня музыки троглодитов (кизомба сейчас опрощается до музыки из арпеджио на три блатных аккорда, там даю ссылки в дискуссии, что это за "три блатных аккорда"). И в этом посте ещё одно видео меня танцующего, хотя и не очень хорошо: на ковролине не слишком-то потанцуешь. Но я хотя бы попытался! Фото с новогодней вечеринки в Лисоборье, новогодняя шапочка за 128 рублей, а вот майка уникальная: это майка DeepHack 2015 года (http://game.deephack.me/), я там читал лекцию по инженерному процессу для нейронных сетей, за это и получил майку (ах, в какой я там был компании лекторов и членов жюри!).

|
</> |