О невинности ИИ


Несколько раз встречал забавные мысли о том, что мол проблема искусственного интеллекта состоит в том, что его невозможно наказать мотивировать за ошибки и мотивировать к добросовестной работе, а любые формальные показатели не мешают ему совершать неформальные ошибки. И даже жалобы на то, что ИИ то и дело нагло врёт.
Проблема здесь в том, что искусственный интеллект - не может ошибаться и не может трудиться недобросовестно. Потому что результаты его деятельности предопределены исходными алгоритмами и объемом выделенных ресурсов. Причем, в отличии от человека, как носителя натурального интеллекта, объем выделенных вычислительных ресурсов никак не зависит от воли ИИ.
Это человек может лениться чтобы свои собственные драгоценные ресурсы лишний раз не расходовать, или использовать их в каких-то других, более интересных целях. ИИ так не умеет, сколько ему дали - столько он и потратит. Не больше и не меньше. Если ресурсов было мало, он будет смело нести любую ахинею, не из лени, а потому что ему "думать" нечем.
Кстати, это маниакальное желание - наказывать за ошибки и неудачи, часто проявляется и во многих других неуместных случаях. И если в случае с ИИ бессмысленность стимулирования и/или мотивации достаточна очевидна, то в случае с людьми, многие считают наказание хорошим способом улучшить ситуацию. Но тоже - ошибаются.
Потому что в большинстве современных видов трудовой деятельности оценка результатов производится по формальным показателям, которые легче фальсифицировать, чем честно достигнуть в результате добросовестного труда. Таким образом, большинство работников, наказанных из-за низких формальных показателей, начинает работать хуже, бросая работать и сосредотачиваясь на фальсифицировании формальных показателей.
Особенно негативные результаты дает система наказаний в случае с интеллектуальными видами деятельности, потому что люди, которые ими занимаются, изначально хорошо подготовлены к фальсификациям любого рода и разрабатывают стратегии и тактики подобных фальсификаций намного быстрее, чем работают создатели систем формальных показателей.
Кроме того, даже честные работники, под дамокловым мечом наказания за неудачу, всегда предпочтут банальные решения, проверенные временем, чем рискнут попробовать что-нибудь новое и более эффективное. Таким образом, работодатели, из лучших побуждений, вредят самим себе.
Кстати, ИИ, не только высокий (к которому еще непонятно как и подступиться), но и низкий (который сейчас доступен) - это идеальный работник, который никогда не ленится, следует всем указаниям и результат его деятельности всегда предсказуем.
Поэтому, на примере ИИ, если его постигла неудача, то всегда будет ясно, что это неудача его владельца, которые не смог правильно его обучить и/или ясно сформулировать исходные данные.
И если вдруг, вместо Искусственного Интеллекта получился Искусственный Идиот, да еще и патологический лжец, это значит, что именно этому его и учили:)
©

* Орфография и пунктуация автора бережно сохранены.
|
</> |