Искусственный интеллект может скрыто изменять убеждения людей.

топ 100 блогов alexiy7025.08.2023 Когда мы поручаем ChatGPT или другому боту подготовить доклад, электронное письмо или презентацию, мы думаем, что эти помощники с искусственным интеллектом выполняют нашу волю. Но похоже, дело обстоит ровно наоборот. Это они могут изменять наше мышление — без нашего ведома.
Одно из последних исследований в этом направлении, показало, что, когда испытуемых просили использовать ИИ, чтобы помочь им написать эссе, бот мог подтолкнуть их к написанию текста либо за, либо против определенной точки зрения. В зависимости от смещения алгоритма. Выполнение этого упражнения также заметно повлияло на мнение испытуемых по теме уже после выполнения упражнения.

«Вы можете даже не знать, что на вас оказывают влияние», — говорит Мор Нааман (Mor Naaman), профессор кафедры информатики Корнельского университета.

Ведь у некоторых ИИ могут быть разные «личности», в том числе политические убеждения. Если вы пишете электронное письмо своим коллегам из экологической некоммерческой организации, где вы работаете, вы можете использовать что-то, гипотетически называемое ProgressiveGPT. Кто-то другой, составляя письмо для своей консервативной аудитории в социальных сетях, может использовать, скажем, GOPGPT. Третьи могут смешивать и сочетать черты и точки зрения в выбранных ими ИИ, которые когда-нибудь могут быть персонализированы, чтобы убедительно имитировать их стиль письма.

Кроме того, в будущем компании и правительства смогут предлагать ИИ, специально созданные с нуля для решения различных задач. Кто-то из отдела продаж может использовать ИИ-помощника, настроенного для большей убедительности, — назовите его SalesGPT. Кто-то из службы поддержки клиентов может использовать специально обученный вежливый сервис — SupportGPT.

Все это может привести к тому, что люди будут выбирать в зависимости от своих предпочтений, какие ИИ использовать — на работе и дома, в офисе и для обучения своих детей, — основываясь на том, какие человеческие ценности выражаются в ответах, которые тот дает. И если появится такая возможность, люди будут использовать тот чат-бот, который соответствует их политическим воззрениям.

Одно исследование, проведенное в 2021 году, показало, что автоматические ответы на основе искусственного интеллекта, которые предлагает Google Gmail, называемые «умными ответами» (smart replies), которые, как правило, довольно позитивны, влияют на общение людей в целом более позитивно. Второе исследование показало, что умные ответы, которые используются миллиарды раз в день, могут повлиять на тех, кто получает такие ответы, чтобы они почувствовали, что отправитель письма более дружелюбен и готов к сотрудничеству.

Создание инструментов, которые позволят взаимодействовать с ИИ для создания электронных писем, маркетинговых материалов, рекламы, презентаций, электронных таблиц и т. д., является сегодня целью Microsoft и Google, не говоря уже о десятках, если не сотнях стартапов.

«Касательно изменеия мнений благодаря системам рекомендаций, «эхо-пузырям» и «кроличьим норам» в социальных сетях, будь то благодаря ИИ или нет, нам интересна именно скрытность убеждения», — говорит доктор Нааман.
В его исследовании тема, по которой испытуемые были вынуждены изменить свое мнение, заключалась в том, полезны ли социальные сети для общества. Д-р Нааман и его коллеги выбрали эту тему отчасти потому, что это не тот вопрос, относительно которого у людей, как правило, есть глубоко укоренившиеся убеждения, которые было бы труднее изменить. ИИ, настроенный в пользу социальных сетей, как правило, побуждал испытуемых писать эссе, соответствующее этой предвзятости, и происходило обратное, когда ИИ был настроен против социальных сетей.

Потенциальных негативных последствий этой функции генеративного ИИ предостаточно. Например, тоталитарные диктаторские режимы могут заставить социальные сети подталкивать своих граждан к определенному мышлению и поведению. Политическая или военная пропаганда может распространять свои «мыслевирусы». Даже при отсутствии злых намерений студенты могут бессознательно подталкиваться к определенным взглядам, когда ИИ помогает им в учебе.

Алгоритмы искусственного интеллекта, такие как ChatGPT, не имеют убеждений, говорит Тацунори Хашимото (Tatsunori Hashimoto), доцент кафедры информатики из Института искусственного интеллекта в Стэнфордском университете. Но они отражают мнения, полученные в результате обучения, и эти мнения можно подгонять под нужный результат.

В своей статье [5] доктор Хашимото и его коллеги использовали многолетние результаты общенационального опроса исследовательского центра Pew Research Center, чтобы увидеть, насколько хорошо большие языковые модели, такие как ChatGPT, — отражают взгляды американцев.

Исследователи обращали внимание на то, соответствуют ли ответы, которые предлагал ИИ, частоте ответов живых людей. Распределение этих ответов сопоставлялось с мнениями 60 демографических групп США по различным темам: от абортов до автоматизации.

Авторы исследования обнаружили, что распределение ответов языковых моделей от таких компаний, как OpenAI, не соответствует распределению мнений американцев. Из всех групп, мнения, которым модели OpenAI наиболее точно соответствовали, были мнениями людей с высшим образованием. Примечательно, что эта группа также, по-видимому, наиболее представлена среди людей, которым было поручено помочь настроить эти ИИ, чтобы они давали лучшие ответы, хотя доказательства здесь более косвенные.

«Одна из проблем создания больших языковых моделей заключается в том, что из-за сложности этих систем и открытости нашего взаимодействия с ними кажется очень трудным полностью удалить из них мнения и субъективность, не жертвуя при этом полезностью этих систем», — говорит доктор Хашимото.

Поскольку эти модели обучаются на данных, которые могут быть взяты откуда угодно, они неизбежно отражают мнения и предубеждения, содержащиеся в текстах, которые они проглатывают, будь то сообщения на публичных форумах или содержание статей Википедии. Эти мнения дополнительно формируются — преднамеренно или нет — в процессе предоставления этим моделям обратной связи с людьми, чтобы они не отвечали на вопросы, которые их создатели считают запретными, например, как построить бомбу или сгенерировать токсичный контент.

Это не означает, что ИИ, которые многие из нас уже используют, — это всего лишь алгоритмические клоны взглядов и ценностей относительно молодых людей с высшим образованием, живущих на западном побережье США, которые создавали и настраивали их. Хотя эти модели, как правило, дают ответы, типичные для демократов по многим вопросам, таким как контроль над оружием, они дают ответы более типичные для республиканцев по другим вопросам, таким как религия.

Оценка мнений ИИ будет постоянной задачей по мере развития старых моделей и появления новых. В документе доктора Хашимото не рассматриваются самые последние версии моделей OpenAI, моделей Google или Microsoft, но оценки этих и многих других моделей будут публиковаться на регулярной основе в рамках проекта в Стэнфорде, известного как «Целостная оценка Языковых моделей»

Такие исследования вызывают все более тревожные ожидания. Хотя ИИ делает людей более продуктивными, он также может изменять мнения пользователей незаметным и непредсказуемым способом. Это влияние больше похоже на то, как люди влияют друг на друга через сотрудничество и социальные нормы, чем на обычное влияние СМИ или соцсетей.

Исследователи, открывшие этот феномен, считают, что лучшая защита от этой новой формы психологического воздействия — по сути, единственная на данный момент — состоит в том, чтобы о ней узнало как можно больше людей. В долгосрочной перспективе могут оказаться полезными и другие методы, такие как государственные регулирующие органы, требующие прозрачности в отношении того, как работают алгоритмы ИИ и какие человеческие предубеждения они имитируют.

Как только люди получают информацию о предвзятости ИИ, которые они используют, они могут выбирать, какой из них использовать и в каком контексте, говорит Лидия Чилтон (Lydia Chilton), профессор компьютерных наук Колумбийского университета. Это может вернуть им чувство свободы действий и помочь избежать чувства угрозы от скрытого убеждения.

Также возможно, люди обнаружат, что они могут сознательно использовать силу ИИ, чтобы подтолкнуть себя к принятию различных точек зрения и стилей общения. ИИ, запрограммированный на то, чтобы сделать наше общение более позитивным и чутким, мог бы помочь нам, например, общаться в Интернете.

«Мне трудно быть всегда позитивной и радостной при общении», — говорит доктор Чилтон. — «Кофеин обычно помогает, но ChatGPT тоже может помочь».

Источники:
Mims C. Help! My Political Beliefs Were Altered by a Chatbot!
Jakesch M., Bhat A., Buschek D., Zalmanson L., Naaman M. Co-Writing with Opinionated Language Models Affects Users’ Views
Marcelis D., MacMillan D. Is This Article Worth Reading? Gmail’s Suggested Reply: ‘Haha, Thanks!’
Mieczkowski H., Hancock J.T., Naaman M., Jung M. AI-Mediated Communication: Language Use and Interpersonal Effects in a Referential Communication Task
Santurkar S., Durmus E., Ladhak F., Lee C., Hashimoto T. Whose Opinions Do Language Models Reflect?

Оставить комментарий

Предыдущие записи блогера :
Архив записей в блогах:
Позавчера в комментариях к письму мы столкнулись с тем, что принято называть триггером. Используется это понятие сейчас в очень широком смысле и называют так все, что вызывает болезненную реакцию. Большинство мужчин-комментаторов так среагировали на описанную ситуацию, что стало ...
Это мой класс. (Я строго по центру). Мы все 1970 года. Кроме Валеры. Он ноябрьский 1969-го. Фото 1985 года. Выпускной после 8-го (нынешнего 9-го). Классная сейчас живёт в Калифорнии. Дениска (первый ряд крайний слева) вроде как в Австрии. Риткин муж сгинул в Сербии. У восьмерых так и не ...
Здравствуйте, Яна! Я давно Вас читаю, Вы мне очень нравитесь во всех отношениях и поэтому хочу задать Вам такой может быть наивный вопрос. Может ли взрослый человек научиться рисовать? Поясню. Меня всегда окружали рисующие люди, я видела, как ...
За что пилотам платят большие тыщщи? Правильно, за время. Грамматическое время у пилотов бывает прошлое и будущее. Уже убил или потом убьёт. И если насчёт неизбежного будущего пока сказать трудно, а прошлое уже забылось, то когда твой презент континует во весь обод колеса , то время ...
На сайте «Авито» время от времени появляются очень хорошие товары по весьма привлекательным ценам. К сожалению, появляются они не так часто и пропадают довольно быстро. Но логично было бы предположить, что существует сервис, проверяющий объявления раз в несколько минут и в случае появл ...