Фактор риска

https://t.me/sevseal/4854
проблема не столько в том, что люди стали терять работу, сколько в том, что их замещает искусственный идиот.
Поясню:
Почему какой-то Вася принимает вот такие-то решения, ты можешь выяснить и понять.
Вася тоже человек. Да, он может быть тупым Васей, но ты можешь его логику, но понять.
А логику искусственного идиота ты понять не можешь, так как это НЕчеловеческая логика, плюс его алгоритмы будут слишком сложными для того, чтобы в них разобраться.
Отсюда опасность: не ясно, когда и где ИИ примет решение, следуя своей логике, которое обрушит всю систему. Т.е. про какие риски я говорю — про риски катастрофических решений..
Пример вот недавний. Военному дрону, который управлялся ИИ и оператором, начисляли очки за поражение цели. Оператор решил прекратить атаку на цель. Дрон посчитал, что оператор мешает его задаче (получению очков) и атаковал оператора. После того, когда ему запретили атаку на оператора, он атаковал вышку, чтобы лишить связи того, кто мешает ему атаковать цель.
Дрон действует логично? Абсолютно! Последствия? Смерть.
|
</> |