A PHP Error was encountered

Severity: Notice

Message: Trying to get property of non-object

Filename: models/model_blog.php

Line Number: 181

A PHP Error was encountered

Severity: Notice

Message: Trying to get property of non-object

Filename: models/model_blog.php

Line Number: 183

И о ИИ | Yablor.ru

И о ИИ

топ 100 блогов dibr31.03.2023 И ещё мысль об этом самом.

Тут [1] грят, мол "ошибкой было бы думать", что chatGPT есть чем думать: это просто огромная убер-тренированная LLM (Large Language Model, она же БЯМ - Большая языковая модель [2]), обученная на миллиарде текстов и с триллионом параметров в пузе, и единственное что она умеет - виртуозно комбинировать слова, опираясь на этот самый миллиард текстов, но не придумывая ничего принципиально нового. А если кто-то в какой-то момент подумает что она думает, так это ему просто повезло - БЯМ скомбинировала слова настолько виртуозно, что в результате действительно получился правильный ответ. Косвенно это подтверждается тем, что известные нам БЯМ довольно часто "бредят" - выдают что-то похожее на ответ, но ответом не являющееся.

Так вот, мне кажется что это уже не совсем так, а скоро может стать совсем не так.
Да, тот же chatGPT изначально создавался/обучался как БЯМ, и скорее всего на первых порах ничем кроме "бредогенератора на стероидах" работать не мог. Но после этого модель довольно долго гоняли "обучением с подкреплением" - фактически, заставляли решать задачки, "награждали" за правильные ответы, и заставляли перестраивать связи так, чтобы правильных ответов было больше и они получались быстрей. Вполне стандартная процедура, если нужно дообучить нейросеть чему-то конкретному, вроде классификации книг по жанрам и качеству языка, игре в реверси, или ещё какой диагностике геморроя по отпечатку носа - но в процессе дообучения сеть перестаёт быть "чистой" БЯМ, и в ней появляются связи, связанные с отпечатками носа и геморроем. "Думать" при этом сеть не начинает - большинство подобных задач сводятся к разновидностям задач распознавания, а они решаются вполне механически, хотя и требуют ресурсов; получается этакий мега-распознаватель определенного класса образов, пристёгнутый к экспертной системе с энциклопедическим объёмом "знаний", и прекрасным умением трепаться. Это может впечатляюще выглядеть со стороны, но не будет "мышлением".

Но chatGPT-то гоняли не на одном виде задачек, а на большом количестве разных - ну то есть совсем разных - задач! Поэтому вместо кучи связей под каждую задачку, между собой не связанных, нейросеть перестроила свои связи так, чтобы решать задачки так сказать "в общем виде", а не каждую по отдельности, то есть - научилась именно _думать_. Примерно так, как когда-то очень давно научились думать наши предки, имея в основе "рептильный мозг" (это не метафора, это научный термин), и постепенно нарастив на нём неокортекс (которым, как считается, мы и думаем). И в этот момент наш любимый chatGPT перестал быть "чистой" БЯМ, и даже "БЯМ прошедшей профориентацию", а приобрёл принципиально новые связи, и стал пусть пока слабенькой, но "думалкой", построенной на платформе мощной БЯМ. Зародышем, так сказать, Массачусетской Машины, но поверх бредогенератора.

Что мы и наблюдаем: если задача не слишком сложная, chatGPT вполне способен абстрагироваться и найти решение, заведомо не сводящееся к механической комбинации содержимого обучающей базы, причём даже для задач, на которых его не натаскивали. Если же задача сложная, или chatGPT не понял условие (не забываем, что нейросетка у нас пока ещё слабенькая, тест IQ например прошла на уровне 83), наружу вылазит лежащая в основе БЯМ, и начинает нести вдохновенную пургу. Ну так, если человека шилом в попу ткнуть, у него первую реакцию тоже рептильный мозг выдаст, а до неокортекса дело вообще может не дойти. А мощность нейросети, в отличие от мощности нашего мозга, наращивается относительно легко, так что - ждём-с.

В общем, всё в точности так, как сказал один широко известный в узких кругах человек в одном из своих опусов [3]:
"Вот кстати тоже тема. Почему у нас столько мелкой специализированной техники? Все эти киберы-носильщики, киберы-уборщики, киберы-парикмахеры и киберы-маникюрщики? Неужели нельзя было сделать универсальную модель? Я когда-то этот вопрос задавал профессору Клапауцию из Института киберехнологий. Который сначала начал мне рассказывать про деятельный гуманизм и про то, что сам вид человекоподобного кибера, услужающего человеку, будет ужасно нервировать общественность. А потом вздохнул и сказал простую вещь: интеллект есть производная решаемых задач по уровню их универсальности. То есть искусственный интеллект, постоянно решающий несколько разных задач, будет развиваться и в конце концов разовьётся до приличного уровня. А решающий задачи узкого спектра - нет. Это законы системотехники, обойти их нельзя. Поэтому лучше уж у нас будут тележки с манипуляторами отдельно и пылесосы с ногами отдельно. Во избежание сами понимаете чего".

Слава Роботам!

[1] https://nlothik.livejournal.com/1319642.html
[2] https://ru.wikipedia.org/wiki/Большая_языковая_модель
[3] http://samlib.ru/h/haritonow_m_j/fuc.shtml

Оставить комментарий

Предыдущие записи блогера :
Архив записей в блогах:
Настрадавшись от просмотра современных творений считающих себя авангардными режиссеров, опять обратил взгляд в недавнее прошлое, где под авангардом подразумевалось, по-моему, нечто другое. Итак, очередной просмотр "Immortel (ad vitam)", что в дословном переводе означает ...
Дано: ребенок, сын. Ребёнку скоро-скоро четыре года. Любит-обожает всё синее. И вот под ДР фактически выдает - "а вы подарите мне на ДР синий торт?" О___0 На заказ смысла ради синего делать не вижу, да и некогда уже. Что делать, куды бечь? Думаю, что какой-нибудь если мастикой ...
Смотрю на предпраздничный логотип украинского Першого національного канала – бани православного храма с цифрой "1025" и думаю: - А ведь на подобный логотип гундяевско-путинская РФия не осмелится. Во-первых, 1025 означает юбилей Крещения Киевской Руси. Руси – значит Украины, а не ...
9 сентября корреспонденту ДО-инфо стало известно о том, что в Центральном суде принято к производству дело по иску администрации Омска к Алме Сапаргалиевне Бухарбаевой о выселении из занимаемой ею квартиры. Предварительное собеседование по ...
– Геронда, когда мы видим, что кто-то ведет себя плохо, надо ли ему что-то говорить? – Зависит от того, что он за человек. В наше время необходимо многое рассуждение и божественное просвещение. Ответить на ваш вопрос не так просто. Я заметил, что в каждом отдельном случае ...