или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Насущная дилемма робототехники — создание морали для роботов

schedule 29.09.2014 в 10:47 link аналитика мораль роботов
​Предоставление роботам морали может звучать хорошей идеей, но это чревато собственными моральными дилеммами. Мол, чья мораль? Нашей команде пришлось немало поработать над этим вопросом, и вот к чему мы пришли.

Остановитесь и оглянитесь вокруг вас прямо сейчас. Вы сидите перед компьютером и, скорее всего, у вас есть телефон или другой "умный" прибор в доме. Поскольку наши устройства становятся более способным, и мы становимся более зависимыми от них, возрастает вопрос по поводу того, что наши отношения с технологией идут наперекосяк.



В некоторых кругах беседа имеет особую актуальность, потому, что речь идет о том, стоит ли роботам принимать решения жизни и смерти, и могут ли такие роботы иметь наши нравы.
Это больше, чем просто невыясненный академический вопрос. В мае этого года Организация Объединенных Наций провела конференцию о том, как установить руководящие принципы для смертоносного автономного оружия, известного более как роботы-убийцы. Примерно в то же время Управление военно-морских исследований США объявило пятилетний грант на 7,5 млн долларов для изучения возможностей создания моральных роботов, от воздушных дронов до роботизированных воспитателей. Пятилетняя программа включает исследователей из политехнического института Ренсселера и Тафтса, Брауна, Джорджтауна и Йельского университета, - сообщает Robotics.ua.
 
Технологические проблемы заключаются в перспективе создания роботов с моралью, поднимая интригующий вопрос: чья мораль?

Здесь возможны три варианта:
  1. Женевские конвенции устанавливают международно согласованные правила ведения войны. Это, по словам Рона Аркина (Ron Arkin), профессора в Школе Интерактивных технологий в Технологическом институте Джорджии, делает программирование автономного оружия с емкостью для морального принятия решений. Но другие, в том числе Уэнделл Уоллах (Wendell Wallach), ученый в междисциплинарном центре Йельского университета по биоэтике и соавтор работы Moral Machines: Teaching Robots Right From Wrong, утверждает, что не робот не должен получить право принимать человеческую жизнь. Период, который приводит нас к ...
  2. Законы робототехники Азимова. Известный писатель-фантаст Айзек Азимов выложил три закона робототехники: что роботы никогда не должны вредить человеку, должны подчиняться приказам человека (если они не вступают в противоречие с первым законом), и могут защитить только свое собственное существование, пока они находятся в соответствии с первыми двумя законами. Позже он добавил нулевой закон о замене других: роботы могут не вредить человечеству. В то время как эти правила кажутся относительно простыми, Азимов сделал себе имя, написав о том, как все может пойти неожиданно, даже когда правила соблюдаются. 
  3. Десять заповедей являются еще одним широко принятым кодовым человеческим поведением, которое кипит сложностями повседневной жизни до приемлемого числа догматов.
Конечно, все мы знаем, что правила были приняты, чтобы их нарушать, а мы, люди, изо всех сил пытаемся сделать моральный выбор - или не согласны с тем, где есть нравственный выбор во многих ситуациях. Так, как мы можем ожидать от робота сделает то, что мы не можем?

Уэнделл Уоллах говорит, что это ограничивает подходы к присвоении роботам морали. В то время как такие коды могут направлять поведение в ограниченном наборе условий, относительно простой набор правил не может обеспечить всестороннее чувство морали.

Альтернативой является то, что Уоллах называет подходом «снизу вверх». Аркин относится к нему как к машинному обучению. Идея в основном заключается в создании инфантильного робота, способного приобретать моральные чувства, так же, как мы это делаем. Это может привести к более похожей на человеческую морали, но инженеры имеют меньше контроля над конечным результатом и здесь есть риски. Аркин говорит, что он получил бы пользу от запрета машинного обучения военных роботов по тем же причинам.

В конце концов, вопрос создания моральных роботов сам по себе является моральной дилеммой, которую нам еще предстоит выработать. А что вы думаете по этому поводу?

Комментарии: