Когда ИИ врёт человеку?


Пока - часто, скоро - всегда...
Конечно, мы надеемся, что это - преувеличение. Но результаты исследования группы из MIT, опубликованные в мае текущего года ("Обман ИИ: обзор примеров, рисков и потенциальных решений", ссылка - в перечне использованных материалов) показывают, что без активного вмешательства в процессы разработки ИИ - сей печальный прогноз легко может воплотиться в реальность в недалеком будущем. Итак:
Обман — это систематическое побуждение ложных убеждений у других людей для достижения какого-либо результата, отличного от истины.
В материале утверждается, что современные системы ИИ уже научились обманывать людей. Приводятся множественные примеры обмана со стороны ИИ, реализованного в виде как систем специального назначения (например, CICERO от Meta), так и систем общего назначения (большие языковые модели), путем применения таких методов, как манипуляция, подхалимство и обман теста безопасности.
Эта статья опубликована в информационном центре AfterShock
пользователем Mr.Wolf. Вы можете ее прочитать
и прокомментировать здесь
|
</> |