Как физические объекты могут "вычислять", "помнить" и "обучаться"
kvisaz — 05.08.2024Некоторые конспекты по 2 главе из книги "Жизнь 3.0"
первая и третья главы имеют ценность уровня фантастических
рассказов или предельно общих рассуждений, а вот вторая глава
предъявляет факты
Как физические объекты могут "вычислять", "помнить" и
"обучаться"
1. компьютрониум (computronium) - любая субстанция, которая может
выполнять любые вычисления. В качестве ее можно использовать
множества самых разных физических систем.
Любая материя может быть основой для памяти, если
у используемого ее фрагмента достаточно разных стабильных
состояний
2. память - есть фундаментальное свойство материии и означает некое
устойчивое состояние некоей субстанции. Ну допустим, у нас есть 10
лунок. Мы можем положить шарик в восьмую лунку. Так мы "записали в
память" число 8.
3. вычисление - переход памяти из одного состояние в другое.
Перемещение шарика между лунками - вычисление. Нахождение прямого угла с помощью трех колышков и веревки
с 12 узелками - вычисление (память тут будет пространственное
расположение участков веревки).
4. обучение - это предельно смешно, но по факту означает изменение материального объекта после массового прогона состояний по нему. Колея, образовавшаяся в дороге - это "обучение дороги". Смешно? Тем не менее на базовом уровне такое определение позволяет строить сложные системы разного плана.
4.1 обучение в более привычном значении поиска среднего - представим себе площадку с мягким грунтом, на который разные люди бросают небольшие шарики. После множества бросков мы отчетливо увидим углубления в том регионе, который является "средним" для всех бросков. Колею на дороге также можно считать системой, которая "обучилась" сводить все движения по ней к среднему значению траектории первых сотен или тысяч проехавших.
Универсальные вычислительные элементы
Под этим можно считать физические объекты, из массы которых можно построить машины, выполняющие сколь угодно сложные вычисления.
К таким элементам относится
- NAND-элемент (из двух состояний на двух выходах вычисляет, то есть формирует по некоторым правилам, состояние на третьем выходе 00 -> 1, 01 -> 1, 10 -> 1, 11 -> 0
- NOR-элемент (00 -> 1, 01 -> 0, 10 -> 0, 11 -> 0 )
- нейрон - вычисляет взвешенную сумму чисел на входах и применяет к результату простую функцию
Нейронные сети - универсальные вычислительные системы
1. нейронные сети могут вычислять любую функцию с произвольной точностью (с) 1989 год, Джордж Цибенко, Курт Хорник, Максвелл Стинчкомб и Халберт Уайт
2. нейроны (как биологические, так и искусственные) не только способны производить математические действия, но их для этого требуется значительно меньше, чем гейтов NAND
3. многослойная нейронная сеть намного эффективнее одного слоя нейронов. Пример - задача перемножения N чисел
- для однослойной сети требует 2 в степени N нейронов
- для многослойной сети требует 4 * N
(для 64 чисел это означало бы 18 квинтиллионов нейронов и 256 нейронов соответственно. Квинтиллион километров, для примера, это диаметр галактики Млечный путь)
Общество
Общество - система, которая запоминает, вычисляет и учится, и всё это оно делает с неуклонно возрастающей скоростью
Предсказания
В 2004 году знаменитый визионер Джефф Хокинс, рассуждая об искусственном интеллекте, писал: “Никакой компьютер не может … видеть так же хорошо, как мышь
Сколько времени потребуется, чтобы машины смогли обойти нас в решении всех когнитивных задач? Мы этого не знаем и должны быть готовы к тому, что ответом окажется “никогда”.
Как только технология удваивает свою изначальную производительность, ее часто можно использовать для создания новой технологии, которая, в свою очередь, становится вдвое производительнее старой, что приводит к повторному удвоению возможностей в духе закона Мура.
Уже на протяжении целого столетия стоимость информационных технологий сокращается вдвое примерно раз в два года, что и привело к нынешней информационной эре.