Не хотите вакцину? Новый инструмент искусственного интеллекта найдет вас
anagaminx — 06.04.2024«Все это попахивает дивным новым миром» – команда исследователей разработала « новый мощный инструмент искусственного интеллекта » (ИИ), который может предсказать, получит ли кто-то вакцину от COVID-19 или нет. По словам исследователей из Университета Цинциннати, разработавших этот инструмент: «Несмотря на требования вакцинации против COVID-19, многие предпочли отказаться от вакцинации, что поднимает вопросы о психологии, лежащей в основе того, как суждения влияют на этот выбор».
Майкл Неврадакис, доктор наук, написал следующую статью в The Defender :
«Все это попахивает дивным новым миром»: новый инструмент искусственного интеллекта прогнозирует нерешительность в отношении вакцинации
По данным Университета Цинциннати, новый инструмент искусственного интеллекта «использует небольшой набор данных из демографических данных и личных суждений, таких как неприятие риска или потерь», чтобы выявить модели «суждений о вознаграждении и отвращении» у людей, которые могут помочь объяснить неготовность человека получить прививку.
Исследователи представили свои выводы в исследовании, опубликованном во вторник в Журнале медицинских интернет-исследований общественного здравоохранения и надзора .
Результаты исследования «могут иметь широкое применение для прогнозирования психического здоровья и привести к более эффективным кампаниям общественного здравоохранения», заявили в университете.
Согласно исследованию: «Несмотря на требования вакцинации против COVID-19, многие решили отказаться от вакцинации, что поднимает вопросы о психологии, лежащей в основе того, как суждения влияют на этот выбор».
Исследователи утверждают, что их результаты «демонстрируют основополагающую важность переменных суждений для выбора и использования вакцины, предполагая, что просвещение и распространение информации о вакцинах могут быть нацелены на различные профили суждений для улучшения внедрения».
Но такие критики, как Брайан Хукер, доктор наук, главный научный сотрудник организации по защите здоровья детей , сказал, что новая технология подразумевает, что у тех, кто сомневается в вакцинах, есть проблемы с психическим здоровьем:
«Весь смысл здесь заключается в том, что несоответствие стандартам государственной пропагандистской машины делает человека психически ненормальным или крайним отбросом. Все это попахивает дивным новым миром, где потенциально непослушные люди становятся жертвами сообщений, основанных на страхе и иррациональности».
Хукер сказал, что новая технология «является готовым заменителем того, чего избегают крупные фармацевтические компании и государственные учреждения здравоохранения: рациональных дискуссий о науке и медицине, которые могут раскрыть правду о побочных эффектах вакцин».
Использование ИИ для борьбы с «колеблющимися в вакцинации»?
Николь Вике, доктор наук , старший научный сотрудник Колледжа инженерии и прикладных наук Университета Цинциннати, была ведущим автором статьи.
«COVID-19 вряд ли станет последней пандемией, которую мы увидим в ближайшие десятилетия», — сказала Вике. «Наличие новой формы искусственного интеллекта для прогнозирования в общественном здравоохранении представляет собой ценный инструмент, который может помочь подготовить больницы к прогнозированию уровня вакцинации и последующего уровня заражения».
Авторы исследования заявили, что эту технологию также можно использовать для «помощи в развертывании вакцины и обеспечении готовности системы здравоохранения путем предоставления подробной информации о конкретном месте» — другими словами, для определения географических областей, в которых может наблюдаться низкий уровень вакцинации и высокий уровень госпитализации, согласно исследованию.
Критики поставили под сомнение утверждения исследования, а также заявили, что они обеспокоены возможными неблагоприятными последствиями использования этой технологии.
«Основная проблема подобных исследований заключается в их основной предпосылке: неуверенность в вакцинации следует учитывать с точки зрения (аберрантной) психологии субъектов, а не со ссылкой на эффективность и безопасность рассматриваемой вакцины», — сказал он. Майкл Ректенвальд, доктор наук, автор книги « Архипелаг Google: Цифровой ГУЛАГ и симуляция свободы».
В результате, по словам Ректенвальда, подразумевается, что «если люди не решаются на вакцинацию, вина в этом лежит на них самих, а не на самой вакцине. Исходя из этой предпосылки, исследование пытается оправдать вакцинацию как норму, связывая аномальные психические и психологические характеристики с нерешительностью по отношению к вакцинации».
Это может привести к тому, что отдельные лица станут объектом преследования, сказал Ректенвальд:
«Использование ИИ для прогнозирования нерешительности в отношении вакцинации на этих условиях может включать в себя мобилизацию программ ИИ для нацеливания и даже идентификации индивидуальных субъектов, не решающихся прививаться. Мы могли бы также ожидать, что программы искусственного интеллекта будут стремиться преодолеть неуверенность в вакцинации с помощью попыток «перепрограммировать» дефектных субъектов.
«По крайней мере, в ближайшем будущем выявление, нацеливание и переобучение лиц, сомневающихся в вакцинации».
Скотт С. Типс, президент Национальной федерации здравоохранения , заявил, что новая технология создает проблемы конфиденциальности.
Типс сказал:
«Это никого не касается, кроме самого человека, хочет ли он или она пройти вакцинацию. Зачем кому-то нужно прогнозировать решения в отношении здоровья? «Прогнозирующий» ИИ в этом вопросе — не что иное, как решение, ищущее проблему. Здесь нет никаких проблем. На самом деле мы должны радоваться, что есть люди, которые не хотят делать прививки».
С аналогичным мнением согласилась и д-р Кэт Линдли, президент Глобального проекта здравоохранения и директор Глобального саммита по COVID . «Существует множество причин, по которым кто-то может сомневаться в вакцинации, и я боюсь, что полагаться на программу, какой бы умной она ни была, чтобы предсказать результат, значит недооценивать человеческий фактор и индивидуальный опыт».
Критики также подвергают сомнению утверждения об эффективности технологии. «ИИ хорош настолько, насколько хорош программист и заданные им параметры, включая предубеждения, с которыми ИИ был создан», — сказал Линдли.
Тим Хинчлифф , редактор The Sociable , сказал: «Мы видели, как ChatGPT выплевывает ерунду , и мы видели катастрофу многообразия, которой был Google Gemini , поэтому было бы лучше подходить к результатам с осторожностью. А когда существует команда ИИ и человека, результаты все равно могут быть предвзятыми».
«Формула «мусор на входе — мусор на выходе» в равной степени применима как к решениям и результатам, принимаемым ИИ, так и к любым другим решениям или результатам, принятым людьми и «глупыми» компьютерами», — сказал Типс. «Если ИИ будет искать ответы в общедоступных файлах и данных, то он выдаст неправильные и предвзятые результаты».
«Кто станет следующей целью этого аппарата прогнозирования отношения?»
Другие эксперты предположили, что правительства могут злоупотреблять этой технологией и использовать ее в качестве оружия против общества.
«Для состояния медицины и приоритетов нашего федерального правительства характерно то, что проводится больше исследований о том, как увеличить использование любого продукта, который они определяют как вакцину, чем проводить исследования безопасности, которых требует общественность. », — сказала Валери Борек, заместитель директора и ведущий политический аналитик организации Stand For Health Freedom .
«Это исследование соответствует многолетнему подходу к использованию психологии и нашего подсознания для продвижения продуктов и программ», — сказала она. «Уже существует технология, которая может оценивать биометрические данные, такие как частота сердечных сокращений, температура и движения глаз, в сочетании со звуком и информацией о местоположении».
Приводя пример, Борек сказал, что Центры по контролю и профилактике заболеваний «уже имеют опыт использования данных мобильных телефонов для наблюдения за общественным здравоохранением ».
Борек добавил:
«У правительства слишком много данных, поэтому использование искусственного интеллекта неизбежно для надзора за общественным здравоохранением. Сколько времени пройдет до того, как устройства, которые мы добровольно носим и носим, будут использоваться для прогнозирования ИИ нашего выбора в отношении здоровья?
«Приведут ли эти прогнозы к какому-либо вмешательству правительства? Нам нужно задать эти вопросы нашим законодателям и сделать все возможное, чтобы минимизировать наш цифровой след».
По словам Хинчлиффа:
«Если «ИИ может предсказывать отношение людей», то предсказание так называемой неуверенности в вакцинации было бы только началом. Что будет дальше? Как предсказать, кто является отрицателем климата? А как насчет прогнозирования отношения людей к кандидатам в президенты и за кого они, скорее всего, проголосуют? Кому нужны выборы, когда ИИ уже знает, кто победит ?
«Что происходит, когда схемы перевоспитания и пропаганды не работают? Будут ли данные по прогнозированию настроений людей переданы правительствам, чтобы они могли расправиться с диссидентами? Кто станет следующей целью этого аппарата прогнозирования отношения? Я предполагаю, что это люди, которые «колеблются» в отношении повествования об изменении климата ».
Исследование утверждает, что ИИ может «делать точные прогнозы о человеческих отношениях»
Согласно заявлению Университета Цинциннати , разработка нового инструмента искусственного интеллекта была основана на опросе, проведенном в США в 2021 году с участием репрезентативной выборки из 3476 взрослых. Респонденты «предоставили такую информацию, как место проживания, доход, высшее образование, этническая принадлежность и доступ к Интернету».
Участников спросили, получили ли они вакцину от COVID-19, при этом около 73% респондентов сообщили, что были вакцинированы - «чуть больше, чем 70% населения страны, которые были вакцинированы в 2021 году», согласно исследованию.
Затем их «попросили оценить, насколько им понравился или не понравился случайный набор из 48 изображений по семибалльной шкале от 3 до -3», чтобы количественно оценить «математические особенности суждений людей, когда они наблюдают умеренные эмоциональные стимулы».
«Переменные оценки и демографические данные сравнивались между респондентами, которые были вакцинированы, и теми, кто не был вакцинирован. Три подхода машинного обучения были использованы для проверки того, насколько хорошо суждения респондентов, демографические данные и отношение к мерам предосторожности против COVID-19 предсказывают, получат ли они вакцину», — говорится в объявлении.
Согласно исследованию, был выявлен «небольшой набор демографических переменных и 15 переменных оценки», которые «прогнозируют использование вакцины с умеренной до высокой точностью и высокой точностью».
В объявлении говорится, что эти результаты показывают, «что искусственный интеллект может делать точные прогнозы о человеческих отношениях, используя удивительно мало данных или полагаясь на дорогостоящие и трудоемкие клинические оценки».
В том же объявлении цитируется Аггелос Кацагелос, доктор наук , талантливый профессор электротехники и информатики Северо-Западного университета, который заявил, что «это исследование направлено против больших данных », потому что новая технология «может работать очень просто» и без необходимости «супервычислений».
«Это недорого и может применяться любым, у кого есть смартфон. Мы называем это вычислительным ИИ. Вполне вероятно, что в самом ближайшем будущем вы увидите и другие заявления об изменении судебного решения», — сказал Кацагелос.
Линдли не согласился. Она сказала The Defender: «Назвать это анти-большими данными — оксюморон, потому что, чтобы иметь возможность претендовать на высокий уровень точности, программа должна охватывать большой объем данных».
«Проблема этой инициативы в области искусственного интеллекта заключается в подходе, охватывающем все население, который игнорирует любые индивидуальные проблемы и опыт», — сказал Линдли. «Если я чему-то и научился, практикуя медицину за последние 20 лет, так это тому, что человеческий фактор имеет значение и он непредсказуем по своей природе».
«Вершина айсберга»: ИИ также может быть использован для быстрой разработки вакцин
Недавно были представлены и другие технологии, связанные с искусственным интеллектом, в сфере здравоохранения.
На ежегодном собрании Всемирного экономического форума (ВЭФ) в январе генеральный директор Pfizer Альберт Бурла высоко оценил роль искусственного интеллекта в разработке Paxlovid , рецептурного перорального препарата, продаваемого для лечения COVID-19.
«Он был разработан за четыре месяца», — сказал Бурла , тогда как разработка такого препарата «обычно занимает четыре года». Он сказал, что ИИ помог значительно сократить время, необходимое для процесса «открытия лекарств», когда вы «действительно синтезируете миллионы молекул, а затем пытаетесь обнаружить, какая из них работает».
Бурла назвал этот прорыв спасением «миллионов жизней» и предсказал, что в будущем таких событий будет еще больше. «Наша работа — совершать прорывы, которые меняют жизнь пациентов», — сказал Бурла. «Благодаря ИИ я могу делать это быстрее и лучше».
«Я искренне верю, что мы вот-вот вступим в научный ренессанс в естественных науках из-за сосуществования достижений в области технологий и биологии», — добавил Бурла. «ИИ — очень мощный инструмент. В руках плохих людей [он] может сделать для мира плохие вещи, но в руках хороших людей [он] может сделать для мира великие дела».
В ходе той же панельной дискуссии ВЭФ Джереми Хант , министр финансов Соединенного Королевства , заявил, что ИИ может привести к быстрой разработке и внедрению вакцин.
«Когда нас ждет следующая пандемия, мы не хотим ждать год, прежде чем получим вакцину», — сказал он. «Если ИИ сможет сократить время, необходимое для получения вакцины, до месяца, то это станет огромным шагом вперед для человечества».
Проект ВЭФ, впервые анонсированный в 2019 году, финансирует исследования по использованию «синтетических» «пациентов», генерируемых искусственным интеллектом, и «синтетических» данных клинических испытаний .
Обеспокоенность по поводу предсказательной способности ИИ привела к некоторым действиям со стороны законодателей по всему миру. 13 марта Европейский парламент принял Закон об искусственном интеллекте , который содержит ряд ограничений и запретов на использование ИИ в различных сферах.
По данным греческой газеты Business Daily , «распознавание эмоций на рабочем месте и в школах, социальный рейтинг , прогнозирующая полицейская деятельность (когда она основана исключительно на профилировании человека или оценке его характеристик) и искусственный интеллект, который манипулирует поведением человека или использует его уязвимости» запрещены законодательно.
Тем не менее, по мнению Хинчлиффа, «использование ИИ для прогнозирования отношения людей к вакцинам и нерешительности в отношении шмурдяка — это лишь верхушка айсберга», поскольку затем технологию ИИ можно «использовать для прогнозирования отношения практически ко всему».
«В случае успеха прогнозирование отношения людей приведет к прогнозированию их поведения. Прогнозировать их поведение — значит знать о них больше, чем они знают о себе», — сказал он. «Как только людей можно будет « взломать », тогда все ставки сняты: ими можно будет манипулировать и контролировать самыми гнусными способами».
Майкл Неврадакис, доктор наук