Весь нынешний КАК БЫ искусственный интеллект придуман в 1985-м. История бума от
alex_rozoff — 20.04.2024 На канале Тест Тьюринга https://www.youtube.com/@turingtestrus опубликован перевод лекции Джеффри Хинтона в Оксфорде под заголовком Заменит ли Цифровой Интеллект Биологический Интеллект? |Профессор Джеффри Хинтон, [ https://ru.wikipedia.org/wiki/Хинтон,_Джеффри ] известный как "крестный отец ИИ", выступил с лекцией в Оксфорде 19 февраля 2024 года. В своем выступлении Хинтон обсудил угрозы #ИскусственныйИнтеллект, включая его потенциал контролировать человечество и распространять дезинформацию.
...Сравниваем сказанное д-ром Хинтоном - с тем, что говорилось в этом журнале.
Предыдущие алармистские манифесты Хинтона уже разбирались тут:
2023-05-03 Новая доза топлива от ИИпатриарха в костер ИИстерики вокруг GPT: "ой, мы не будем знать где правда"
https://alex-rozoff.livejournal.com/670177.html
2023-10-19 "Авторитетное" раздувание темы AIпокалипсиса: БигТех пытается продать миру тезис о страшной силе GPT
https://alex-rozoff.livejournal.com/721122.html
...Но сейчас сосредоточимся на сравнении содержательной части: что такое Большие Языковые Модели (LLM) по версии этого журнала - и по новой лекции д-ра Хинтона - ПОЕХАЛИ!
Что говорилось в этом журнале:
Тут надо оговориться: я скептически отношусь к современной генеральной линии в области прикладного моделирования интеллекта. Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м (т.н. концепция многослойного персептрона, или т.н. искусственных нейронных сетей). Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
Научное сообщество занялось было поисками продвинутой модели, но еще через 10 лет начался экстенсивный рост ресурсов компьютерной памяти и вычислительной мощности. Кто-то решил. что при таких ресурсах BigData, для ИИ будет вполне достаточно интеллекта медузы. Перспективные исследования были свернуты, и прикладная наука бросилась искать пути форсированной набивки электронной медузы - массивами данных. В итоге, мы имеем сейчас не эпоху Искусственного Интеллекта, а эпоху Искусственного Имбецила (очень удобно - не надо даже менять аббревиатуру ИИ). ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).
https://alex-rozoff.livejournal.com/122271.html
40 лет назад в книге "The Creative Computer. Machine intelligence and human knowledge" (в русском переводе "Компьютер творец") Donald Michie (Дональд Мичи), один из основателей искусственного интеллекта, как концепции, автор методики программирования многошаговых интеллектуальных игр (MENACE) основатель Turing Institute в Глазго, The Human Computer Learning Foundation, и т.д., и т.п. - уделил огромное внимание вопросу, который считал ключевым для ИИ. Это вопрос о внутренних моделях окружающего мира, о модели построения/корректировки таких моделей, и о рекурсивном применении такого моделирования в интеллектуальной системе. Без внутренней модели, связывающей возможные явления внешнего мира (или вообще предметной области) - нет интеллекта. Подобие интеллекта, которое можно создать на базе модели сетей Хопфилда путем формирования больших решающих таблиц, "обучаемых" на примерах - окажется имитацией, опасной для пользователя, поверившего в "разумность" такого подобия.
https://alex-rozoff.livejournal.com/662352.html
ChatGPT — это большая языковая модель, натренированная на огромной выборке из массивов слов. Представим, что вы залили в некую базу данных все книги, написанные человечеством, плюс все, написанное людьми в интернете. Разбили (людьми ли, нейросетью-классификатором ли, неважно) залитое на небольшие тематические блоки, каждый из которых можно рассматривать как кусочек ответа на вопрос. Затем задали определенные правила — назовем их «четыре арифметических правила для чат-бота», — по которым эти тематические блоки можно смешивать.
Именно этим и пользуются многие хитрые хомо сапиенсы. Кто-то «пишет» чат-ботом в соцсети для знакомств с противоположным полом. Ну какая девушка сразу спросит у вас, почему в законах Хаммурапи выбрана такая высокая отсекающая кредитная ставка? Подобных вопросов на свидании можно и за всю жизнь не услышать, зато «ответы» от чат-бота действительно поднимают шанс получить от собеседницы (или собеседника) «да».
Только вот к разуму такие обмены репликами не имеют никакого отношения.
(Александр Березин)
https://naked-science.ru/article/nakedscience/kontrol-nad-demonami
https://alex-rozoff.livejournal.com/662253.html
Что из этого подтвердил д-р Хинтон?
Практически все о свойствах нейронных сетей и о споре по поводу внутренней модели мира, включая уточнение, что его (Хинтона) собственная разработка 1985-го года была полным действующим прототипом современных GPT-подобных продуктов (только машинной памяти и вычислительных мощностей тогда, 40 лет назад, было мало).
В этом журнале мной была допущена единственная серьезная ошибка.
Я указал в качестве базовой модели для LLM - сеть Хопфилда 1982 года
https://ru.wikipedia.org/wiki/Нейронная_сеть_Хопфилда
На самом деле базовой моделью была схема Вербоса 1974 года
https://ru.wikipedia.org/wiki/Метод_обратного_распространения_ошибки
Сходство с сетью Хопфилда возникло из-за применения т.н. "механизма внимания" (придуманного в 2014-м для ускорения обработки обучающих данных к задачам машинного перевода)
Neural Machine Translation by Jointly Learning to Align and Translate
https://arxiv.org/abs/1409.0473
https://neerc.ifmo.ru/wiki/index.php?title=Механизм_внимания
Приношу извинения за эту ошибку (к счастью, не повлиявшую на существенные выводы).
...Такие дела...
|
</> |