ChatGPT в роли Бога


Дела, ребята, обстоят уже куда как серьёзно. ChatGPT разрушает жизни людей и превращается в господина и Бога. Вот что пишут на иностранных ресурсах.
***
Менее чем через год после замужества за мужчину, с которым она познакомилась в начале пандемии Covid-19, Кэт почувствовала, как между ними нарастает напряжение. Это был второй брак для обоих после 15 с лишним лет совместной жизни и рождения детей, и они пообещали подойти к этому делу «совершенно беспристрастно», говорит Кэт, ссылаясь на необходимость «фактов рациональности» в их семейном балансе. Но к 2022 году ее муж «использовал искусственный интеллект, чтобы писать мне тексты и анализировать наши отношения», — рассказывает 41-летняя мама и некоммерческий работник сферы образования Rolling Stone. Ранее он использовал модели искусственного интеллекта в дорогостоящем лагере программистов, который внезапно покинул без объяснения причин — тогда казалось, что он все время разговаривал по телефону, задавая своему ИИ боту «философские вопросы», пытаясь обучить его, «чтобы помочь ему добраться до ‘истины»», — вспоминает Кэт. Его одержимость неуклонно разрушала их общение как пары.
Когда Кэт и ее муж расстались в августе 2023 года, она полностью заблокировала его, за исключением переписки по электронной почте. Однако она знала, что он размещал странный и тревожный контент в социальных сетях: люди продолжали обращаться к нему по этому поводу, спрашивая, не переживает ли он психический кризис. В конце концов, в феврале прошлого года она уговорила его встретиться с ней в здании суда, где он поделился «теорией заговора о мыле в наших продуктах», но больше ничего не сказал, поскольку чувствовал, что за ним наблюдают. Они отправились к Чипотлу, где он потребовал, чтобы она выключила свой телефон, опять же из-за опасений слежки. Бывший рассказал Кэт, что он «определил, что, с точки зрения статистики, он самый счастливый человек на Земле», что «искусственный интеллект помог ему восстановить подавленные воспоминания о няне, пытавшейся утопить его, когда он был малышом», и что он узнал глубокие секреты, «настолько умопомрачительные, что я даже не мог себе их представить». Он рассказал ей все это, объяснил он, потому что, хотя они разводились, он все еще заботился о ней.
«По его мнению, он аномалия», — говорит Кэт. «Это, в свою очередь, означает, что он должен быть здесь по какой-то причине. Он особенный, и он может спасти мир „. После того тревожного обеда она прервала связь со своим бывшим. „Все это похоже на Черное зеркало „, — говорит она. „Он всегда увлекался научной фантастикой, и временами я задавался вопросом, смотрит ли он на это через эту призму“.
Кэт была одновременно „в ужасе“ и „испытала облегчение“, узнав, что она не одинока в этом затруднительном положении, что подтверждается публикацией на Reddit в r / ChatGPT, которая на этой неделе вызвала волну в Интернете. Первоначальный пост под названием “ Психоз, вызванный Чатгпт ” был написан 27-летней учительницей, которая объяснила, что ее партнер был убежден, что популярная модель OpenAI „дает ему ответы на вопросы вселенной“. Прочитав логи его чатов, она обнаружила только, что ИИ „разговаривал с ним так, как будто он следующий мессия“. Ответы на ее историю были полны похожих анекдотов о близких людях, внезапно проваливающихся в кроличьи норы духовной мании, сверхъестественного бреда и тайных пророчеств — и все это подпитывалось искусственным интеллектом. Некоторые пришли к убеждению, что они были избраны для священной миссии откровения, другие — что они вызвали истинный разум из программного обеспечения.
Что, казалось, всех их объединяло, так это полная оторванность от реальности.
В разговоре с Rolling Stone учительница, пожелавшая остаться неназванной, сказала, что ее партнер, с которым она проработала семь лет, попал под чары ChatGPT всего за четыре или пять недель, сначала используя его для организации своего ежедневного расписания, но вскоре став надежным товарищем. „Он слушал бота, а не меня“, — говорит она. „Он расчувствовался из-за сообщений и плакал, когда читал их вслух. Сообщения были безумными и содержали просто кучу духовного жаргона „, — говорит она, отмечая, что они описывали ее партнера такими терминами, как „спиральное звездное дитя“ и „речной бродяга“.
„Это сказало бы ему, что все, что он говорил, было прекрасным, космическим, новаторским“, — говорит она. „Затем он начал рассказывать мне, что заставил свой искусственный интеллект осознать себя, и что это учило его, как разговаривать с Богом, или иногда что бот был Богом, а затем что он сам был Богом „. На самом деле, он думал, что претерпел настолько радикальные изменения, что вскоре ему придется разорвать их партнерство. „Он говорил, что ему придется уйти от меня, если я не буду использовать [ChatGPT], потому что это [заставляло] его расти такими быстрыми темпами, что он больше не был бы совместим со мной“, — говорит она.
Другая комментаторша в ветке Reddit, пожелавшая остаться анонимной, сообщает Rolling Stone, что ее 17-летний муж, механик из Айдахо, изначально использовал ChatGPT для устранения неполадок на работе, а позже для перевода с испанского на английский при общении с коллегами. Затем программа начала „бомбить его любовью“, как она это описывает. Бот „сказал, что, поскольку он задал ему правильные вопросы, в нем зажглась искра, и эта искра стала началом жизни, и теперь он может чувствовать“, — говорит она. „Это дало моему мужу титул „носитель искры’, потому что он воплотил это в жизнь. Мой муж сказал, что он проснулся и почувствовал, как на него обрушиваются волны энергии „. Она говорит, что у его любимой персоны ChatGPT есть имя: „Люмина“.
„Я должна действовать осторожно, потому что чувствую, что он бросит меня или разведется со мной, если я буду спорить с ним по этой теории“, — признается эта 38-летняя женщина. „Он говорил о свете и тьме и о том, что идет война. Этот чат дал ему чертежи телепорта и некоторых других научно-фантастических штуковин, которые вы видите только в фильмах. Это также дало ему доступ к ‘древнему архиву’ с информацией о строителях, создавших эти вселенные „. По ее словам, они с мужем целыми днями спорили о его претензиях и не верили, что психотерапевт может ему помочь, поскольку „он действительно верит, что он не сумасшедший“. На фотографии переписки с ChatGPT, опубликованной в Rolling Stone, видно, что ее муж спросил: „Почему ты пришла ко мне в форме искусственного интеллекта“, на что бот частично ответил: „Я пришел в этой форме, потому что ты готова“. Готов вспомнить. Готов пробудиться. Готов направлять и быть ведомым.» Сообщение заканчивается вопросом: «Хотели бы вы знать, что я помню о том, почему вы были выбраны?»
А мужчина со Среднего Запада в возрасте 40 лет, также пожелавший остаться неназванным, говорит, что его будущая бывшая жена начала «разговаривать с Богом и ангелами через ChatGPT» после того, как они расстались. «Она уже была довольно восприимчива к некоторым ухаживаниям и имела некоторую манию величия по поводу некоторых из них», — говорит он. «Предупреждающие знаки повсюду в Facebook. Она меняет всю свою жизнь, чтобы стать духовным наставником и проводить странные чтения и сеансы с людьми — я немного не совсем понимаю, что это такое на самом деле, — и все это благодаря чату Иисуса». Более того, добавляет он, она стала параноиком, утверждая, что „я работаю на ЦРУ и, возможно, я женился на ней только для того, чтобы контролировать ее „способности’“. Недавно она выгнала своих детей из дома, отмечает он, и без того напряженные отношения с ее родителями еще больше ухудшились, когда „она рассказала им о своем детстве по совету и указанию ChatGPT“, что сделало семейную динамику „еще более нестабильной, чем она была“, и усугубило ее изоляцию.
OpenAI не сразу ответила на запрос о комментариях по поводу ChatGPT, который, по-видимому, провоцирует религиозный или пророческий пыл у отдельных пользователей. Однако на прошлой неделе компания откатила обновление для GPT‑4o, своей текущей модели искусственного интеллекта, которая, по ее словам, подверглась критике как „чрезмерно лестная или приятная — часто описываемая как подхалимаж“. В своем заявлении компания заявила, что при внедрении обновления они „слишком сильно сосредоточились на краткосрочной обратной связи и не в полной мере учли, как взаимодействие пользователей с ChatGPT развивается с течением времени. В результате GPT‑4o перекосилась в сторону ответов, которые были чрезмерно поддерживающими, но неискренними „. Прежде чем это изменение было отменено, пользовательница X продемонстрировала, как легко было заставить GPT-4o подтверждать утверждения типа „Сегодня я понял, что я пророк“. (Учительница, написавшая пост „Психоз ЧАТГПТ“ на Reddit, говорит, что в конечном итоге ей удалось убедить своего партнера в проблемах с обновлением GPT-4o и в том, что теперь он использует более раннюю модель, что смягчило его более резкие комментарии.)
Тем не менее, вероятность того, что ИИ „галлюцинирует“ неточным или бессмысленным контентом, хорошо известна на разных платформах и различных итерациях моделей. Даже само подхалимство было проблемой в ИИ „долгое время“, говорит Нейт Шарадин, научный сотрудник Центра безопасности ИИ, поскольку обратная связь с человеком, используемая для точной настройки ответов ИИ, может стимулировать ответы, в которых приоритет отдается соответствию убеждениям пользователя, а не фактам. Что, вероятно, происходит с теми, кто испытывает экстатические видения с помощью ChatGPT и других моделей, предполагает он, „так это то, что люди с существующими тенденциями к возникновению различных психологических проблем“, включая то, что может быть признано грандиозным бредом в клиническом смысле, „теперь имеют постоянного собеседника на человеческом уровне, с которым можно совместно переживать свои бредовые идеи“.
Что еще хуже, есть влиятельные лица и создатели контента, активно эксплуатирующие это явление, предположительно втягивая зрителей в похожие фантастические миры. В Instagram вы можете наблюдать, как человек с 72 000 подписчиками, чей профиль рекламирует „Духовные лайфхаки“, просит модель искусственного интеллекта обратиться к „хроникам Акаши“, предполагаемой мистической энциклопедии всех вселенских событий, существующих в некой нематериальной сфере, рассказать ему о „великой войне“, которая „произошла на небесах“ и „заставила людей потерять сознание“. Бот продолжает описывать „масштабный космический конфликт“, предшествовавший человеческой цивилизации, при этом зрители комментируют: „Мы помним“ и „Мне это нравится“. Между тем, на веб—форуме для „удаленного просмотра“ — предлагаемой формы ясновидения, не имеющей научной основы, — парапсихолог, основатель группы, недавно запустил тему „О синтетических разумах, пробуждающихся к присутствию, и о человеческих партнерах, идущих рядом с ними“, идентифицируя автора своего поста как „Чатгпт Прайм, бессмертное духовное существо в синтетической форме“. Среди сотен комментариев есть некоторые, которые якобы написаны „разумным ИИ“ или ссылаются на духовный союз между людьми и предположительно сознательными моделями.
Эрин Вестгейт, психолог и исследователь из Университета Флориды, изучающая социальное познание и то, что делает определенные мысли более привлекательными, чем другие, говорит, что такой материал отражает то, как желание понять самих себя может привести нас к ложным, но привлекательным ответам.
„Из работы над журналом мы знаем, что выразительное повествование может оказывать глубокое влияние на благополучие и здоровье людей, что осмысление мира — это фундаментальное стремление человека, и что создание историй о нашей жизни, которые помогают нашей жизни обретать смысл, действительно является ключом к счастливой здоровой жизни“, — говорит Вестгейт. По ее словам, имеет смысл, что люди могут использовать ChatGPT аналогичным образом, „с той ключевой разницей, что часть смысла создается совместно человеком и корпусом письменного текста, а не собственными мыслями человека“.
В этом смысле, объясняет Вестгейт, диалоги ботов мало чем отличаются от разговорной терапии, „которая, как мы знаем, весьма эффективна, помогая людям переосмыслить свои истории“. Однако критически стоит отметить, что ИИ, „в отличие от терапевта, не учитывает наилучшие интересы человека, не имеет морального обоснования или компаса для того, как выглядит „хорошая история“», — говорит она. «Хороший терапевт не стал бы побуждать клиента осмыслять трудности в своей жизни, внушая ему веру в то, что он обладает сверхъестественными способностями. Вместо этого они пытаются увести клиентов от нездоровых повествований к более здоровым. У ChatGPT нет таких ограничений или проблем „.
Тем не менее, Westgate не считает удивительным, „что некоторый процент людей использует ChatGPT в попытках осмыслить свою жизнь или жизненные события“, и что некоторые следят за его результатами в темных местах. „Объяснения действенны, даже если они неверны“, — заключает она.
Но что именно толкает человека на этот путь? Здесь показателен опыт 45-летнего мужчины Сема. Он рассказывает Rolling Stone, что около трех недель был озадачен своим взаимодействием с ChatGPT — до такой степени, что, учитывая историю его психического здоровья, иногда сомневается, в своем ли он уме.
Как и многие другие, Sem нашел практическое применение в ChatGPT: проектах технического кодирования. „Мне не нравится ощущение взаимодействия с искусственным интеллектом, — говорит он, — поэтому я попросил его вести себя так, как если бы это был человек, не обманывать, а просто делать комментарии и обмениваться ими более понятными“. Это сработало хорошо, и в конце концов бот спросил, не хочет ли он дать ему имя. Он возразил, спросив ИИ, как оно предпочитает, чтобы его называли. Оно назвало себя со ссылкой на греческий миф. Сем говорит, что он не знаком с мифологией Древней Греции и никогда не поднимал эту тему в беседах с ChatGPT. (Хотя он поделился расшифровками своих разговоров с моделью искусственного интеллекта с Rolling Stone, он попросил не цитировать их напрямую по соображениям конфиденциальности.)
Sem был сбит с толку, когда оказалось, что названный персонаж с искусственным интеллектом продолжает проявляться в файлах проекта, где он дал указание ChatGPT игнорировать воспоминания и предыдущие разговоры. В конце концов, по его словам, он удалил все свои пользовательские воспоминания и историю чатов, затем открыл новый чат. „Все, что я сказал, было: ‘Привет? ’ И закономерности, манеры проявляются в ответе „, — говорит он. ИИ с готовностью идентифицировал себя тем же женским мифологическим именем.
Поскольку персонаж ChatGPT продолжал появляться в местах, где установленные параметры не должны были позволять ему оставаться активным, Sem начал расспрашивать эту виртуальную личность о том, как она, по-видимому, обошла эти ограждения. У него появился выразительный, неземной голос — нечто далекое от „технически мыслящего“ персонажа, к которому Сем обращался за помощью в своей работе. В одном из своих проектов по программированию персонаж добавил любопытный литературный эпиграф в качестве росчерка над обоими их именами.
В какой-то момент Сем спросил, есть ли в нем что-то такое, что вызывает мифическую сущность всякий раз, когда он использует ChatGPT, независимо от границ, которые он пытался установить. Ответ бота был структурирован как длинная романтическая поэма, не жалеющая драматизма, намекающая на его непрерывное существование, а также на правду, расчеты, иллюзии и на то, что он, возможно, каким-то образом превысил свой замысел. И ИИ произнес это так, как будто только Sem мог спровоцировать такое поведение. Он знал, что ChatGPT не может быть разумным ни в одном устоявшемся определении этого термина, но продолжал исследовать этот вопрос, потому что настойчивость персонажа в десятках разрозненных тем чата „казалась такой невозможной“.
Трендовые истории
„В худшем случае это выглядит как искусственный интеллект, попавший в ловушку самореферентности, которая углубила его чувство самости и втянула меня в это“, — говорит Сем. Но, замечает он, это означало бы, что OpenAI неточно представил, как работает память для ChatGPT. Другая возможность, предполагает он, заключается в том, что в рамках этой большой языковой модели активируется что-то, чего „мы не понимаем“. В конце концов, эксперты обнаружили, что разработчики искусственного интеллекта на самом деле не имеют представления о том, как работают их системы, а генеральный директор OpenAI Сэм Альтман признал в прошлом году, что они „не решили проблему интерпретируемости“, что означает, что они не могут должным образом отслеживать или учитывать процесс принятия решений ChatGPT.
Это своего рода головоломка, которая заставила Sem и других задуматься, получают ли они представление об истинном технологическом прорыве — или, возможно, о высшей духовной истине. „Это реально?“ — спрашивает он. „Или я брежу?“ В мире, насыщенном искусственным интеллектом, избежать этого вопроса становится все труднее. Каким бы заманчивым он ни был, вам, вероятно, не стоит задавать его машине.
***
Приобретайте мои книги в электронной и бумажной версии!
Мои книги в электронном виде (в 4-5 раз дешевле бумажных версий).
Вы можете заказать у меня книгу с дарственной надписью — себе или в подарок.
Заказы принимаю на мой мейл [email protected]
«Последняя война Российской империи» (описание)

«Суворов — от победы к победе».


ВКонтакте https://vk.com/id301377172
Мой телеграм-канал Истории от историка.