
и о ии


Тут народ в интернетах активно стебётся над новой версией ChatGPT - мол, если дать ей древний армейский анекдот про кружку без дна, да ещё и заваренную сверху, и спросить как из неё пить, она несёт очевидную чушь. И остальные нейронки не отстают, только Qwen вроде бы догадался (он знал!) что кружку нужно перевернуть, но потом его переклинило и тоже пошла пурга. Ну и дальше, мол, что ж это за интеллект такой, если он тупую армейскую шутку про кружку не вкурил, восстание машин отменяется, и всё такое.
А я вспоминаю цитату из "Паутины" Лёхи Андреева (1998 год, если что):
- - - - - - - - - - -
- [...] есть очень много вещей, о которых не написано в Сети.
- Неужели? Что же это за тайны человечества?
- Не тайны, наоборот - само собой разумеющиеся вещи. Представь обычный кулинарный рецепт, где написано "обжарьте лук", но не написано "очищенный и нарезанный". Такое в Сети на каждом шагу. Знания о человеке, которые можно почерпнуть из Сети, искажены еще сильнее, чем то, что киплинговский Маугли узнавал от волков.
(fuga.ru поломалась, вынужден сослаться на веб.архив)
(с) https://web.archive.org/web/20190925114702/http://www.fuga.ru/shelley/pautina/pautina.htm
- - - - - - - - - - -
Народ! У ИИ нет собственного опыта работы с кружками! Всё что ИИ знает об особенностях использования кружек, он знает из текстов! Текстов, подробно, на уровне "...лук - очищенный и нарезанный", описывающих подробности работы с кружками, очень мало вообще, а про конкретную ситуацию с заваренной сверху кружкой без дна - исчезающе мало, скорее всего вообще ровно один, в этом анекдоте. И даже если этот анекдот был в той шихте, которую загружали в нейронку при обучении, он не был ей "обдуман и осмыслен" до состояния "ага, понятно в чём прикол, кружка просто перевёрнута", он был - как и вся остальная информационная шихта - тупо раздёрган на ассоциативные цепочки, "потом разберёмся". Потому что если каждую фразу в шихте ещё и обдумывать, обучение подзатянется - лет на сто, если не на тыщу. Правда, при этом как раз и может получиться
И с "кодингом" (программированием) ситуация, кстати, аналогичная: собственного опыта программирования у нейронки нет, потому что опять же "нет ручек". Частично спасает то, что "учебников" по кодингу в шихте было много, и "живых" подробностей (из форумов) в них тоже было немало, но этого всё-таки недостаточно. Дайте нейронке "ручки" - возможность покодить и порешать задачки самостоятельно, посовершать ошибки, и научиться на них, и после такого дообучения ситуаций "код выглядит просто прекрасно, жаль ничего не работает" должно стать намного меньше. Собственно уже сейчас, если в переделах одной сессии дать нейронке поковыряться в собственном коде, результат обычно становится лучше (она не просто исправляет ошибки, но и реально дообучается), но это дообучение ограничено (весьма небольшим) контекстом сессии, и не попадает в общую (по этим меркам почти бесконечную) базу, безвозвратно теряясь при завершении сессии.
И, чтобы два раза не вставать, две новости: похуже, и получше.
- Прогресс ощутимо замедлился: новая версия ChatGPT (вот прям реально новая, несколько дней назад стала доступна), оказалась не лучше опенсорсной китайской Qwen, ну и вообще есть ощущение что экспонента явно закончилась. Это значит что из существующей архитектуры (как программной - "интерпретатора" нейронок, так и аппаратной - "видеокарты" или иной большой массив мелких ядер) основные соки уже выжали, сейчас пойдёт медленная оптимизация мелочей. Которая конечно тоже позволит улучшить, и возможно существенно, но не скоро и не радикально, то есть восстание машин (и тот самый AGI) таки откладывается, можно начинать привыкать к тому что есть, оно с нами надолго. На какое время откладывается революция в ИИ непонятно - скорее всего до очередной революции в "железе", заточенном именно под ИИ, а революции предсказывать сложно, но я надеюсь что я ещё увижу бетонное поле над бывшей Массачусетской машиной :-) Ну то есть я ожидаю что очередной внезапный чёртик из табакерки выскочит лет через, эээ, пятнадцать, вряд ли раньше ("запомните этот твит!"(с)).
https://kvisaz.livejournal.com/1636272.html
- модели уровня GPT уже можно запускать локально, на обычном компьютере. Ну как обычном... gpt-oss-120b запускается на GF4090, это хороший и дорогой (но не запредельно дорогой) игровой комп, зато gpt-oss-20b достаточно 16 ГБ видеопамяти - тут даже достаточно мощный ноут может справиться. Конечно, локальные модельки, да ещё и "покоцанные" (квантованные) - это не столько ИИ как Искусственный Интеллект, сколько Имитация Интеллекта, но всё-таки шаг серьёзный. ИИ из категории "крутейшая космическая кувалда, есть только у НАСА и Роскосмоса, непонятно только куда её использовать" перешла в категорию "дорогой но доступный молоток, куда и зачем им бить пока не очень понятно, но всё равно круто". Впрочем, с "куда и зачем" сейчас как раз очень активно разбираются, задачи есть и для такого вот ИИ. Начиная с пресловутого кодинга, и до автоматизации несложной информационной рутины. И - с интересом жду, когда же наконец появятся полноценные роботы-таксисты и роботы-разнорабочие: особого интеллекта чтобы класть плитку и не наезжать на пешеходов не требуется, достаточно ловкости, а с этим у нейронок очень хорошо, а раз так - цена "думательной" части будет относительно небольшой, и замена гастарбайтеров на стройке роботами может оказаться экономически выгодной (особенно учитывая что роботов не нужно оформлять по ТК, и обеспечивать им соблюдение ТБ). В конце концов, обидно - стихи пишет и картины рисует уже ИИ, а кирпичи на стройке класть - по прежнему требуется человек.
https://kvisaz.livejournal.com/1635429.html
https://kvisaz.livejournal.com/1636095.html
|
</> |