рейтинг блогов

«Моральные принципы» беспилотных автомобилей

топ 100 блогов masterok05.07.2017 «Моральные принципы» беспилотных автомобилей

Когда я на конференции ЦИПР-2017 в Иннополисе фотографировал Гошу Куценко, он в этот момент слушал докладчика на секции, посвященной роботам и беспилотным автомобилям.

Там как раз обсуждалась тема морального выбора у автопилота. Простыми словами это можно озвучить так: если наезд неизбежен, то кого давить "ребенка или бабушку"? А может быть в таком случае лучше "пожертововать" пассажиром машины?

И вот в какую сторону сейчас развивается дискуссия в этом вопросе ...

Конечно же вы все сейчас станете говорить о том, что мол надо не выбирать кого "давить", а стараться не допускать подобных ситуаций или решать их так, чтобы все остались целы и невредимы. Это все так. Но то, что человек решает на уровне подсознания, робот или автопилот должен решать по заложенной в него программе. А программу как раз таки разрабатывает заранее человек и он что то должен определить в этот момент. Нельзя же просто именно эту ситуацию вообще не предусмотреть. В противном случае в каком то сложном положении беспилотный автомобиль влетит на остановку полную людьми, вместо того, чтобы повернуть в обратную сторону и в отбойник например.


«Моральные принципы» беспилотных автомобилей


Для того, чтобы понять, как поступили бы люди в той или иной критической ситуации, сотрудники института разработали специальную игру «Moral Machine».

Тест доступен для всех желающих, в том числе и на русском языке. В игре моделируется ситуация, когда самоуправляемый автомобиль вышел из-под контроля, а искусственный интеллект должен сделать свой выбор.

«Моральные принципы» беспилотных автомобилей


Всего в тесте представлено 13 ситуаций, в каждой из которых необходимо решить кого- пешеходов или пассажиров- оставить в живых.


«Моральные принципы» беспилотных автомобилей


Например, пользователю предлагается выбрать кто из 2 двух людей – молодой или пожилой человек – должен остаться в живых, а на кого наедет автомобиль.

На сегодняшний день Moral Machine набрала уже более 11 млн. возможных сценариев поведения.

А как бы вы прошли этот тест?


«Моральные принципы» беспилотных автомобилей


Однако, совсем недавно ученые из Университета Оснабрюка (Германия) провели другой эксперимент, участники которого должны были с помощью симулятора виртуальной реальности «водить машину» в туманный день в пригороде. Неожиданно на пути «водителей» возникало препятствие в виде человека, животного или неодушевленного предмета, и им приходилось принимать решение, кого пощадить в данной ситуации.

Результаты эксперимента показали, что поступки водителей в этом случае были обусловлены их морально-этическими принципами, пишет издание EurekAlert! Таким образом, человеческое поведение можно хорошо описать с помощью алгоритмов, которые со временем будут использованы и машинами. Для этого собственно и не требовалось никаких исследования, все и так понятно, но "британские ученые такие ученые ...".

Мне как не специалисту больше непонятен не тот аспект, кого выберет задавить водитель животное или человека, а как будет решать водитель или в будущем программа беспилотного автомобиля, когда выбор будет стоять между врезаться в стену (и возможно погибнуть) и врезаться например в автобус и возможно погубить или покалечить несколько человек.

Нет, давайте вообще по максимуму упростим ситуацию: врезаться в стену или сбить человека? Каждый человек на Земле совершит явно не одинаковое действие. Тут нет 100% верного решения. Так вот и программа беспилотного автомобиля должна понимать какие действия ей предпринять когда выбор стоит так или вот так. Конечные шансы никто не знает, но вот выбор направления действия должен быть однозначно!

В Германии пошли дальше. Недавно Федеральное министерство транспорта и цифровой инфраструктуры Германии определило 20 этических принципов для водителей автомобилей. Согласно им, к примеру, ребенок, бегущий через дорогу, признается «более вовлеченным в создание опасной ситуации», чем взрослый, стоящий на обочине. Таким образом, в данном случае водитель не должен жертвовать жизнью или здоровьем взрослого пешехода. Оригинально, не правда ли? Т.е. моральные ценности в этом случае что то лишнее и не нужное. Может быть так и должно быть? Четкий расчет и рационализм?

«Теперь, когда мы знаем, как внедрять этические принципы в машины, мы, как общество, сталкиваемся с двойной дилеммой, — объяснил профессор Питер Кениг. — Во-первых, мы должны решить, следует ли включать моральные ценности в „поведение“ машин, а во-вторых, должны ли машины действовать так же, как люди».

Авторы исследования уверены, что автомобили-беспилотники — это только начало, поскольку все более распространенными становятся роботы в больницах и другие системы искусственного интеллекта. Ученые предупреждают, что мы стоим на пороге новой эпохи и должны установить для машин четкие правила, пока те не начали принимать решения без нас.


«Моральные принципы» беспилотных автомобилей


Конечно же не будем думать, что эта тема и такие выборы возникли только сейчас.

Я очень хорошо помню, как в детстве читал книжку Азимова "Я, Робот". Она произвела на меня огромное впечатление. Возможно основной причиной этому были сюжеты, посвященные выбору роботами между тремя законами робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но даже имея такие четкие законы, случались ситуации, которые либо не описывались ими, либо создавали серьезное противоречие со здравым смыслом.

Чувствуется мне, что еще лет через 10 уже придется нам создавать свои законы робототехники и ставить на одну сторону весов рациональность и расчет, а на другую мораль и принципы совести.

Или вы считаете, такой проблемы не возникнет?

-------------------
Павел Шипилин («Моральные принципы» беспилотных автомобилей pavel_shipilin) о коррупции в России и мире. Четверг, 6 июля, в 17:00 (Мск):

«Моральные принципы» беспилотных автомобилей


Ах да, зачем Гоша Куценко все это слушал я вам рассказывал тут.

Оставить комментарий

Архив записей в блогах:
Недавно назначенный ВРИО губернатора Вологодской области Г.Ю.Филимонов возложил красные гвоздики к музею ссылки И.Джугашвили по адресу: г Вологда, ул М.Ульяновой, 33, со словами "это наша история" .. история выборочно. Есть и другая история: была расстрельная комната в помещении ...
Завтра начнётся голосование за лучшие стилизации "Представим, как известные поэты написали бы стихи о ковиде" Пока там все комментарии скрыты, сегодня ещё можно добавить свою стилизацию. У меня тоже кое-что сочинилось, покажу вам это вне конкурса. Я вам песенку спою про злой ...
Вот супер облегченный вариант изготовления бумаги ручной работы. Зато результат выше всяких похвал. И такую бумагу можно использовать где угодно, особенно для скрапа. МК от Ларисы Федоровны Отличный фон для открыток 2. ...
Недавно добавляла в свою галерею раздел лучшие фотографии и в связи с этим решила составить свой небольшой хит-парад любимых городов. Сразу встает вопрос: любимых по какому принципу? Красота и гармоничность города, возможности для создания ...
После сожжения Корана в Стокгольме турецко-шведские отношения пошли вразнос. Был отменен визит министра иностранных дел Швеции в Анкару. После антитурецких и антиисламских акций в Стокгольме не стоит ожидать поддержки Турции в вопросе вступления в НАТО, заявил президент Реджеп Тайип ...