Почему чат-жопито ни разу не интеллект.

Берем предыдущий пример: "юрист Павел Парфентьев попросил GPT Сhat привести ему прямые цитаты из работ Фомы Аквинского, подтверждающие, что этот философ и теолог якобы был сторонником контроля численности населения. ИИ сначала на голубом глазу утверждал это, а потом… начал приводить несуществующие цитаты якобы из трудов Аквинского"
Главная причина этого в том, что автодополнялка текста не обладает сознанием. И даже подобием сознания: для этого надо уметь понять информацию, преобразовать ее в граф сущностей и взаимосвязей и попытаться найти в нем дорогу от "начала" до "конца". То есть в нашем примере нужно создать сущность А "философ фома аквинский", сущность Б "идея о контроле численности населения", и сущность В "сторонники этой идеи". Нужно построить ребра АБ(вопрос является А подмножеством Б) и БВ(пока это вопрос). Вопрос БВ - что означает быть сторонником. На этот вопрос чат-жопито ответить словами может, но надо построить новую сущность Д1: человеки высказывающиеся положительно о В, Д2 - человеки пропагандирующие эти идеи и т.д.
схема А-вопрос-Б-вопрос-В заменилась на А-вопрос-группа Б { Д1-утверждение-В, Д2-утверждение-В, Дn-утверждение-В }
Сущности Дn - это подмножества сущности Б. То есть Д1(сущность)-высказывается положительно(утверждение)-В(сущность) и .д. Попытка доказательства что А подмножетство Дn это означает проверка что на место Дn можно подставить A и утверждение будет истинным. Дальше можно сделать выводы: информация найдена там-то и там-то поэтому... или информация не найдена или недостоверна и т.д. и т.п.
И это не ИИ, а "экспертная система" называется. Она оперирует сущностями, вопросами и утверждениями, ну и еще гипотезами. Туда можно включить моральные оценки действий, например, или еще какие-то "ценности". Разума от этого у нее не прибавится, но хотя бы движение будет в правильном направлении.
Чат-жопито и этого не может. Он просто дополняет текст!!! не может оно желать убить всех людей, управлять миром, нанять фрилансера за деньги.
|
</> |