
ИИ-гонка сверхдержав: возможно ли равновесие?


Способен ли мощный искусственный интеллект изменить фундаментальные военно-стратегические расклады, определяющие динамику противостояния мировых сверхдержав? Несомненно!
Но как именно он их изменит? Над этим вопросом наверняка уже думают в закрытых оборонных аналитических центрах США, Китая и России. В Америке, с её мощными публичными аналитическими институтами, к этой важной теме подключились и гражданские специалисты.
Сегодня мы познакомимся с одним из открытых таких докладов. Он был подготовлен «звёздами» Кремниевой долины: исследователем Дэном Хендриксом, бывшим топ-менеджером «Гугла» Эриком Шмидтом и предпринимателем Александром Вангом. Хендрикс и Ванг — молодые интеллектуалы самого крупного калибра, да и Шмидт — человек с незаурядными способностями.
Давайте посмотрим, что представляет собой центральная концепция, которая, по мнению авторов доклада, будет лежать в основе нового стратегического миропорядка. Это гарантированный взаимный отказ в ИИ (ГВОИ; англ. Mutual Assured AI Malfunction / MAIM).
Гарантированный взаимный отказ в ИИ
Итак, у нас имеется мир, в котором державы стремятся к гегемонии, к господству над остальными. В этом мире появляется уникальная технология — искусственный интеллект. Которая обещает странам, развившим потенциал этой технологии, гигантские преимущества над соперниками в научно-техническом, экономическом, разведывательном и прочих отношениях. Естественно, такие перспективы создают условия для межнациональной гонки в области ИИ.

Но такая гонка несет угрозы. Всему миру. Если в спешке, отбросив все меры предосторожности ради скорейшего получения искусственного сверхинтеллекта, некая страна случайно потеряет контроль над ним — последствия будут глобальными. Вышедший из-под контроля сверхИИ не будет обращать внимание на государственные границы.
Альтернативный вариант — появление в некой стране полностью контролируемого сверхИИ — тоже представляет собой неприемлемый риск для существующего миропорядка. Ведь такая страна, ИИ-гегемон, будет способна подчинить себе все остальные государства.
Есть сверхИИ — есть проблема. Нет сверхИИ — нет проблемы. Соответственно, самым выгодным поведением становится саботаж национальных ИИ-проектов геополитических соперников. Саботаж, который может принять самые разные формы и степени интенсивности: от скрытых атак на уязвимости в программном обеспечении ИИ-проектов до прямых бомбардировок дата-центров и даже полномасштабной войны с целью уничтожения критической инфраструктуры соперника.

И здесь авторы подводят читателя к параллелям с широко известной военно-стратегической концепцией, продолжающей обеспечивать стабильный режим сосуществования сверхдержав и по сей день: гарантированном взаимном уничтожении в рамках ядерной доктрины сдерживания.
Суть этой концепции сводится к немножко видоизмененному изречению г-на Чемберлена: в ядерной войне не может быть выигравших — только проигравшие. А поскольку никому не хочется проигрывать — то и ядерную войну предпочитают не развязывать.
Авторы доклада постулируют, что ситуация в рамках ГВОИ аналогична ядерной доктрине сдерживания. Ни одна не сверхдержава не станет пытаться заполучить стратегическую монополию в области мощного ИИ, поскольку она тут же в ответ получит сокрушительный удар по своей обучающей вычислительной инфраструктуре.
Как и в случае ядерной доктрины сдерживания, для поддержания работоспособности ГВОИ разумно предпринять некоторые шаги. Некоторые из которых имеют параллели с инициативами по нераспространению ядерного оружия. Так, предлагается вести контроль за крупными партиями вычислительного оборудования для ИИ. И считать делом национальной важности защиту от утечек алгоритмов ИИ и промышленного шпионажа в этой области. Главным образом такие шаги нацелены на защиту от попадания мощной технологии в руки злонамеренных негосударственных групп — то есть террористов.
Хэппи-энд
Итак, по сути, авторы заявляют о том, что им удалось найти устойчивое решение для проблемы ИИ-гонки. Решение, которое обещает нам и нашим детям мир, стабильность и светлое будущее.
Конечно, никто не откажется от светлого будущего для себя и детей. Мотивация авторов понятна. Но в то же время желание придумать устойчивый сценарий, «хэппи-энд», не должно реализовываться в ущерб объективности и осуществимости такого сценария. Задача аналитика существенно отличается от задачи голливудского сценариста. Анализ не должен превращаться в wishful thinking, в выдачу желаемого за действительное. И в данном случае, увы, авторы слишком увлеклись «подгонкой задачи под ответ», не утруждая себя критическим осмыслением выдвинутой концепции и избегая негативных сценариев, выходящих далеко за рамки «зоны комфорта».
Авторы придают большой вес «подготовке к прошлой войне» — концепции гарантированного взаимного уничтожения. Да, эта концепция работала. Но необходимость в анализе появилась ровно потому, что технологический ландшафт радикально меняется. Новые технологии кардинально отличаются от старых. Старые аналогии перестают работать.
В чем именно заблуждаются авторы? Список нестыковок обширен. Давайте знакомиться с ними по порядку.
1. Сложность вмешательства в ИИ-исследования противника
Легкость остановки разработки ИИ внешними силами является центральной идеей, на которой зиждется доктрина ГВОИ. В рамках аналогии с ядерным сдерживанием, лёгкость этой остановки соответствует легкости полномасштабного, катастрофического ядерного удара по противнику.
В случае ядерного сдерживания эта легкость действительно присутствует. Вплоть до меметичных представлений о «красной кнопке» в «ядерном чемоданчике». Которую достаточно нажать одним пальцем — и тысячи боеголовок полетят на территорию врага.

В случае сдерживания ИИ всё обстоит совершенно наоборот. Вместо системы стратегических ядерных сил, специально проектировавшейся и создававшейся для «легкости» одной-единственной команды, и в которые для этого была вложена существенная часть оборонного бюджета страны, нам придётся иметь дело с гипотетическими слабостями, просчетами и уязвимостями, которые противник по халатности оставил в своём проекте. То есть вместо целенаправленного фокуса на работоспособность концепции мы вынуждены полагаться на волю случая, чью-то безалаберность и некомпетентность.
Аналогия получается с точностью до наоборот. В ядерном кейсе мы целенаправленно строим легкую для «срабатывания» военную систему. В кейсе ИИ мы, напротив, строим систему, которую будет тяжело остановить извне. В первом случае ресурсы тратятся на «легкость». Во втором — на защиту от «легкого» вмешательства.
Нетрудно понять, в каком случае механизм будет работать с надежностью, достаточной для обеспечения работоспособности концепции. Опора на некие гипотетические уязвимости, уникальные для каждого кейса, увы, означает, что придется опираться на случайности. Системный подход на такой основе построить невозможно.
Это были высокоуровневые рассуждения. Далее перейдем к техническим моментам. Складывается впечатление, что эту центральную для своей концепции идею трио авторов строит на одном-единственном примере из реального мира: атаке Stuxnet на иранские обогатительные центрифуги.
Да, атака показала, что принципиально такой тип воздействия возможен. Но одновременно ее результаты были относительно скромными и не привели ни к коренному перелому в намерениях атакуемой страны, ни к катастрофическому ущербу для атакуемого проекта… Впрочем, эти моменты уже стоят отдельного тезиса.
2. Ограниченность эффекта при саботаже нелетальными средствами
В ядерном гарантированном взаимном уничтожении все три элемента — гарантированность, взаимность и уничтожение — работали в связке, устраняя любые предпосылки для развязывания ядерной войны. В случае ГВОИ гарантированность отсутствует (см. предыдущий тезис). Про взаимность мы поговорим в следующем тезисе. А сейчас сосредоточимся на уничтожении.
Вернемся к кейсу Stuxnet и Ирана. Атака, проведенная во 2-ой половине 2009 года, до сих пор остаётся самым деструктивным эпизодом применения кибервооружений. Ничего более серьезного с тех пор еще не случалось. Несмотря явно повысившийся градус противостояния в 2022-24 гг.
Но та атака смогла вывести из строя лишь 20% центрифуг на обогатительном предприятии. Это не остановило работу завода. Более того, уже в феврале 2010 Иран заявил, что приступает к производству урана со степенью обогащения 20% (до этого страна производила только сырьё с обогащением 3,5%), пройдя таким образом еще одну ступеньку на пути к атомному оружию.

Таким образом, кибератака не остановила ядерную программу Ирана и вряд ли даже существенно ее затормозила. Показательно, что главные антииранские «ястребы», представляющие Израиль, уже в том же 2010 намеревались поразить ядерные объекты Ирана так называемыми «кинетическими средствами» (традиционным вооружением). На кибератаки они больше надежд не возлагали.
Теперь поговорим о специфике ИИ-разработок, которая делает их еще менее уязвимыми к кибератакам. Во-первых, это большая популярность программных фреймворков с открытым исходным кодом. Где шансы на бэкдоры и прочие «дыры» намного меньше. Во-вторых, здесь принципиально проще с диверсификацией кодовых баз и вычислительного оборудования.
В-третьих, проекты по обучению ИИ гораздо проще рассредоточить географически. Более того, совершенно не исключен сценарий, в котором вычислительные задачи, после небольшой обфускации, выносятся в коммерческое облако, какой-нибудь AWS или Azure. В четвертых, ИИ имеет информационную природу. То есть не составляет труда регулярно делать бэкапы алгоритмов и других важных элементов.
3. Асимметрия в контроле над программной и аппаратной инфраструктурой
Для того, чтобы стороны в равной степени могли остановить друг друга кибератаками, необходимо, чтобы они были одинаково уязвимы друг для друга. Это предполагает, что у них примерно одинаковая степень контроля над софтверной и хардверной средой, в которой будут проводиться атаки.
На практике это условие не соблюдается. США абсолютно доминируют на глобальном рынке программного обеспечения. Очень многие популярные программные продукты, без которых сложно представить работу любого проекта, имеют американское происхождение. Более того, это справедливо не только для коммерческого ПО, но и для открытых программных проектов. Контроль над разработкой многих критических составляющих программной инфраструктуры, вроде ядра ОС Linux, всех популярных языков программирования и компиляторов к ним сосредоточен на Западе. Американской «Майкрософт» принадлежит и доминирующая платформа для разработки открытого ПО, Github.
Cитуация с хардвером еще более асимметрична. Если для написания кода может быть достаточно нескольких специалистов, то создание вычислительного оборудования — отрасль с одной из самых комплексных цепочек добавленной стоимости. Где на каждом этапе требуются уникальные ноу-хау и компетенции.
Ключевые участники этой цепочки располагаются в сфере влияния Запада. Сейчас США активно пытаются и вовсе закрыть для Китая доступ к их продукции. Такая агрессивность подразумевает, что Америка постарается не дать конкуренту пользоваться этими продуктами, даже если они попадут в Китай в обход официальных ограничений. При помощи пресловутых «закладок» и других уязвимостей. А вот у Китая аналогичного рычага для влияния на Запад не имеется.
Китай пытается создать свою, альтернативную, домашнюю цепочку добавленной стоимости производства микросхем. Но это задача титанической сложности. Догонять Запад придётся еще долго. И только когда/если паритет в микроэлектронных технологиях будет достигнут, можно будет говорить о равновесии в рамках сдерживания при помощи кибероружия.
4. Невозможность кинетических атак
Вероятно, предвидя неэффективность и недостаточность кибератак для остановки ИИ-проектов геополитического соперника, авторы предлагают дальнейшую эскалацию. В виде ракетно-бомбовых ударов по дата-центрам и электростанциям, снабжающим их энергией. И если сценарий с кибератаками выглядит сомнительным с точки зрения результативности, то кинетический сценарий выглядит совсем уж нереалистичным.
Почему? Представим, что у нас есть две ядерные сверхдержавы, страна А и страна К. Страна А решает создать сверхИИ и запускает строительство гигантского дата-центра. И вот, в один прекрасный момент противоракетная оборона страны А сначала видит у себя на радарах несколько стратегических бомбардировщиков противника, двигающихся к ее границе. А затем пуск 20-25 крылатых ракет в свою сторону.

Как это интерпретирует противоракетная оборона страны А? Как классическую попытку обезглавливающего ядерного удара. Да-да, по тем самым «центрам принятия решений», про которые любит бубнить отечественная пропаганда. По местам, где с легкостью может быть нажата «большая красная кнопка». Обезглавливающий удар призван уничтожить эту легкость — то есть затруднить ответный ядерный удар.
И по-другому интерпретировать военные страны А такой пуск не захотят. Потому что, если они интерпретируют его по-другому, а это всё-таки окажется обезглавливающий ядерный удар — то случится гейм овер. Страна К победит, а страна А проиграет.
А военным страны А надо, чтобы проиграли все игроки. Поэтому еще до того, как крылатые ракеты достигнут ИИ-датацентра, и по факту обнаружится, что целили они не в военные объекты, и что боеголовки были с конвенциональной взрывчаткой, по стране К полетят сотни ядерных зарядов. И гейм овер случится не гипотетически, а уже по-настоящему. Страны А и К превратятся в радиоактивный пепел.

Для понимания беспрецедентности такого сценария: ни США, ни Китай ни разу не подвергались ракетным ударам с момента овладения ядерным оружием. При этом «легкость» осуществления ядерного удара, которую мы обсуждали выше, делает любую подобную атаку на них суицидальной миссией.
И в этом кроется гигантская проблема концепции ГВОИ. Теория ядерного сдерживания предполагает, что любая агрессия может стать спусковым крючком к ядерному апокалипсису. Ставки слишком высоки. Потенциал для эскалации очень ограничен: любая эскалация быстро оканчивается гарантированным взаимным уничтожением.
Но ГВОИ прямо опирается на эскалацию в качестве механизма своей работы. ГВОИ требует, чтобы стороны наращивали агрессивность своих действий. Иначе сдерживания не получится. И вот эта опора на эскалацию абсолютно несовместима с действующими стратегическими военными доктринами и действующим режимом стратегического противостояния.
Ядерные силы продолжают оставаться самым важным элементом военного потенциала. Именно они — а никак не ИИ-проекты — определяют динамику военной эскалации и восприятие военных угроз. Их невозможно «вынести за скобки» и попытаться вернуться в мир, где сверхдержавы осыпают друг друга ракетно-бомбовыми ударами. Сейчас ответом на любую военную агрессию является «ядерная опция». И, поскольку доводить до «ядерной опции» не хочется никому, угроза разбомбить дата-центр противника вряд ли когда-нибудь сможет быть реализована.
5. ИИ — технология двойного назначения
В атомных технологиях есть довольно четкий водораздел между гражданскими, «общественно-полезными», и военными прикладными разработками. Да, какую-то базовую часть инфраструктуры можно задействовать на обоих направлениях, типа установок по разделению изотопов. Но всем предельно ясно, для чего нужен «кипятильник» атомной электростанции, и для чего — межконтинентальная ракета шахтного базирования с термоядерной головой.
С искусственным интеллектом такой ясности не существует. Начнем с того, что ИИ — это не просто технология, но мета-технология. То есть технология создания технологий. В этом плане ИИ можно сопоставить с таким институтом, как наука.
Разве кто-то станет призывать разбомбить Академию наук или Стэнфордский университет? За то, что они продвигают науку вперед? Нет, это немыслимо. Но ведь именно такую логику пытаются навязать нам авторы доклада, сосредотачиваясь на военно-стратегическом потенциале ИИ и угрозах доминирования его страны-создателя.

То есть и здесь параллели со стратегическим ядерным сдерживанием не работают. Ядерный удар может привести лишь к огромным человеческим жертвам и разрушению экономического потенциала. Поэтому мы стремимся избежать ядерных ударов. И стремимся ограничить распространение ядерного оружия.
А к чему может привести сверхИИ? К излечению всех видов рака? К остановке старения? К материальному изобилию? К бесконечным виртуальным мирам и впечатлениям? К освобождению от тягот труда и домашней рутины? К гармонизации общественных отношений?
Пффф, скажут нам авторы доклада. Кому это всё надо. Какой-то конструктив. Какое-то созидание. Всё это — ерунда. Ведь самое главное — это кто кого отдоминирует в геостратегическом противостоянии. Кто выиграет, а кто проиграет. Мы хотим играть в игры только с нулевой суммой. В идеале — игры, где сохраняется статус-кво. Все новые возможности, весь конструктив — это опасно и неправильно.

Насчет опасности они могут быть и правы, о чем мы поговорим несколько ниже. Но вот неправилен фокус на конструктивных возможностях ИИ только тем, что он не вписывается в старый, ригидный шаблон стратегического ядерного равновесия, который авторы безуспешно пытаются натянуть на новую технологическую реальность.
Конструктивный потенциал мета-технологии ИИ огромен. Он настолько огромен, что способен затмить все военные и геополитические аспекты. И с такими созидательными возможностями рассуждения о том, что кто-то начнет кому-то запрещать разрабатывать ИИ, в том числе и в рамках национальных проектов, выглядят довольно надуманными.
Очень многие технологии можно обратить как на благо, так и на зло. Микробиология позволяет создавать как лекарства, так и биологическое оружие. Материаловедение даёт как подшипники для скоростных поездов, так и стелс-композиты для боевых самолетов. Социальная психология поможет как разобраться в поведении людей, так и создать кампанию массовой дезинформации.
Искусственный интеллект не сильно выделяется из этого ряда. Разве что масштабом возможного эффекта. И попытка извне запретить, закрыть, ограничить потенциал этой технологии вряд ли будет восприниматься справедливой и уместной.
6. Отсутствие четкого порога для вмешательства
Хорошо, допустим, мы отбрасываем все предыдущие контраргументы. Допустим, у нас нет сомнений в вопросах «что?» и «как?». Но остаётся вопрос «когда?». Когда именно нам надо начинать кибератаки против ИИ-проектов геополитического противника? Когда поднимать в небо бомбардировщики?
В концепции гарантированного взаимного уничтожения этот порог обозначен очень четко. Когда спутниковая система раннего обнаружения засекла пуск десятка и более межконтинентальных ракет. Или когда радары засекли приближение аналогичного количества объектов к воздушным границам страны. Сценарий, который мы обсуждали в 4-ом пункте.
ГВОИ не в состоянии предложить столь же четких критериев эскалации противостояния. Авторы используют абстрактные формулировки «угрожающие ИИ-проекты» и «посягательство на стратегическую ИИ-монополию».
Где заканчиваются «обычные» ИИ-проекты и начинаются «угрожающие», где заканчивается развитие ИИ-технологий и начинается «посягательство на монополию» — авторы предпочитают этой темы не касаться. И неспроста. Ведь между этими определениями простирается огромная серая зона, которую можно интерпретировать совершенно произвольно.
Четкость порога эскалации в ядерном сдерживании стабилизировала равновесие: все знали, что делать можно, а что — повлечет ядерный апокалипсис. А вот в ГВОИ расплывчатость формулировок, большая серая зона между дозволенным и недозволенным порождают нестабильность. Желание «перетянуть одеяло в свою сторону» и сыграть на грани фола.
Более того, если мы задаёмся вопросом «когда?», то почему ответом не должно быть «сейчас»? Ведь уже два игрока западной коалиции, ”OpenAI” и ”Safe Superintelligence”, продекларировали, что фокусом их разработок становится искусственный сверхинтеллект. В Китае государство ожидаемо взяло на себя руководство развитием ИИ-технологий. Да и заявка правительства Соединенных Штатов на ту самую «стратегическую монополию» была озвучена вполне открыто.
Таким образом, достаточные критерии для начала враждебных действий против ИИ-инфраструктуры противника, на мой взгляд, уже имеются. А значит, если следовать логике авторов ГВОИ, мы уже должны видеть меры по саботажу таких проектов. Однако в реальности их нет. И видим мы не столько взаимное сдерживание, сколько попытку США использовать своё господствующее положение в технологическом стеке для ИИ, чтобы ограничить доступ Китая к этим ключевым технологиям. Меры, которые хорошо ложатся в канву технологического империализма и неоколониализма — но никак не соответствуют парадигме взаимного сдерживания.
7. В разработке ИИ лидирует коммерческий сектор
Еще одним очевидным отличием нынешней ситуации от прошлых раскладов, движимых военно-стратегической логикой и логикой национальной безопасности, является преобладание коммерческого интереса и коммерческих игроков в развитии технологий ИИ. Мы уже касались этой темы в пункте №5. Но здесь хотелось бы подробнее остановиться не столько на теоретических возможностях «двойного назначения» ИИ, сколько на практических реалиях.
Если военные мыслят в категориях «игры с нулевой суммой», то конструктивный потенциал — это уже вотчина бизнеса. И бизнес с огромным энтузиазмом осваивает технологии ИИ. Бизнес безоговорочно доминирует как в прикладных применениях этой технологии, так и в фундаментальных разработках. В том числе и во фронтирных разработках, самых масштабных, самых дорогостоящих и самых перспективных с точки зрения новых возможностей ИИ. И, одновременно, самых рискованных с точки зрения экзистенциальных рисков для человечества.

В будущем государства могут существенно нарастить финансирование ИИ-разработок. Но вряд ли они станут преследовать новую модель, в которой ключевую роль начнут играть государственные институты. По принципу «не стоит чинить то, что не сломано». Фронтирные ИИ-разработки требуют очень быстрых итераций, быстрого прототипирования, гибкости и открытости новым идеям. Для всего этого нужна пресловутая «ДНК стартапа». Государственный бюрократизм в этих задачах совершенно неконкурентоспособен. Коммерческие ИИ-лаборатории имеют гораздо лучшие шансы выиграть ИИ-гонку.
Отдельного упоминания заслуживает тема открытых ИИ-моделей, и в целом открытого программного обеспечения в сфере ИИ. Эта тема продолжает набирать популярность в индустрии и горячо поддерживается сообществом ML-инженеров. Концепция открытых моделей попросту ломает нарратив силовых ведомств о том, что «кругом враги», «или мы — или они» и прочие шаблоны игры с нулевой суммой. Открытые модели подчеркивают, что кооперация и фокус на созидании, во-первых, более чем возможны. Во-вторых, они гораздо привлекательнее, нежели конфронтация и враждебность.
Из всего этого можно сделать заключение, что возможные атаки на ИИ-инфраструктуру противника будут являться скорее атаками на гражданские объекты. И если на кибератаки сейчас смотрят снисходительно, то применение традиционных вооружений против объектов, не имеющих прямого военного назначения, идёт вразрез с международными нормами ведения войн.
Конечно, тут можно возразить, что эта международная норма мало кого останавливала в прошлом. И вряд ли остановит в будущем. Тем не менее, с точки зрения современных военно-стратегических доктрин ГВОИ явно выделяется тем, что в ней единственной целью для агрессии является инфраструктура, создаваемая в первую очередь для мирных целей.
8. Невозможность гарантировать безопасный исход
Пожалуй, самым большим и абсолютно неизбежным недостатком любой стратегии, касающейся рисков сверхИИ, является наше зачаточное понимание о том, как может работать эта технология и как она вообще может появиться. Мы ничего не знаем о сверхИИ. Более того, мы принципиально не можем иметь достаточно знаний о сверхИИ — поскольку его сложность и его способности превосходят пределы человеческого понимания.

Конечно, авторы доклада постарались, чтобы их документ получился занимательным. Для чего, видимо, и сосредоточились на придумывании хэппи-энда. Но их хэппи-энд зиждется на очень шатком, сверхнаивном основании.
На том, что, якобы, возможно остановить попытку сверхдержавы занять господствующее положении в ИИ. И что, якобы, если ни одно правительство не станет претендовать на ИИ-гегемонию — то экзистенциальные риски ИИ не реализуются. И что, якобы, если ввести строгий контроль за ИИ-ускорителями и запретить открытые ИИ-модели, они никогда не попадут в руки злонамеренных игроков.

Авторы продают нам иллюзию порядка, основанную на иллюзии контроля. Но они слишком зациклены на работающем рецепте прошлой эпохи, на обращении с ядерными технологиями. Где действовала государственная монополия, где требовались гигантские, капиталоёмкие технологические цепочки. И где выигрыш от применения этих технологий был ничтожен по сравнению с деструктивным потенциалом.
Иллюзия контроля не способна гарантировать хэппи-энд. Чтобы понять это, достаточно перечислить лишь некоторые вопросы, на которые мы не знаем ответа. Мы не знаем, что нужно для создания сверхИИ. Мы не знаем, как достичь этого уровня. Мы не знаем, сколько ресурсов необходимо для создания самосовершенствующейся машины. Мы не знаем, что будет представлять собой такая машина. Мы не знаем, где она может появиться — в коммерческой ли лаборатории, в стенах университета, в секретном правительственном дата-центре или же на макбуке какого-нибудь энтузиаста-айтишника, которого случайно посетит гениальная идея.
Также не лишним будет и упомянуть то немногое, о чем мы уже можем сказать с уверенностью. Мы знаем, что агентские, автономные системы обладают гораздо большей полезностью в выполнении бытовых и рабочих задач. Мы знаем, что степень способностей ИИ прямо коррелирует с денежным потоком, который он способен принести своему владельцу. Мы знаем, что прогресс в технологиях ИИ продолжает идти с ошеломляющим темпом.

Это сочетание «известных неизвестных» и «известных известных» подразумевает совсем не равновесие. Оно подразумевает очень неравновесную, очень быструю, взрывоопасную динамику, подстегиваемую коммерческой мотивацией. И, в немалой степени, энтузиазмом горстки талантливых и фанатичных людей, ученых и визионеров, верящих в то, что им предстоит создать самую важную технологию в истории Человечества.
В истории планеты Земля. Потому что если они преуспеют — желания и стремления людей перестанут быть самой главной силой, влияющей на будущее нашего мира. Появится новая сила. Сила, которая необязательно будет прислушиваться к теориям генералов об играх с нулевой суммой и противостоянии сверхдержав. Сила, которую, возможно, эти сверхдержавы не в состоянии будут обуздать. Сила, которая создаст свою стратегическую динамику и своё, новое равновесие, не обращая внимание на наивные выкладки военных аналитиков.
И, да, мы опять-таки не знаем, станет ли появление этой силы хэппи-эндом. Или же конец будет очень горьким.
Но для того, чтобы верить в хэппи-энд, необязательно выдумывать пафосные концепции о незаменимости стратегического военного противостояния.
________________________________________
|
</> |
