или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Роботы должны быть наказаны за ошибки – новое исследование ученых университета Вашингтона

schedule 24.04.2012 в 14:26 link исследование University of Washington Peter Kahn Heather Gary Robovie
​Некоторые утверждают, что роботы не имеют свободу действий, и поэтому не могут нести моральную ответственность за свои действия. Но психологи из Университета Вашингтона (University of Washington) обнаружили, что в некоторых случаях люди не могут отвечать за действия человекоподобных роботов.

Последние результаты исследователей показывают, что роботы показывают мораль и другие человеческие характеристики в умеренной степени. Они оснащены социальными возможностями и способны нанести вред человеку. В этом случае ущерб является финансовым и не опасным для жизни. Но кроме этого исследование демонстрирует, как люди реагируют на ошибки роботов.
Полученные результаты означают, что, если роботы становятся все более изощренными и человекоподобными, люди могут заставить их нести моральную ответственность за причинение вреда.

“Мы движемся к тому времени, когда роботы будут способны причинить ущерб людям”, - сказал ведущий автор исследования Питер Канн (Peter Kahn), профессор UW, кафедра психологии. – “В этом исследовании мы изучаем сущность робота, как всего лишь инструмент, или, как некоторые формы технологического существа, которое может нести ответственность за свои действия”.
Эта работа была недавно опубликована в трудах Международной конференции по правам роботов и их взаимодействию с людьми.

В исследовании Кан и группа его ученых использовали 40 студентов в игре охоты человекоподобного робота за сборщиками разных объектов. Робот работал автономно, но некоторые его действия управлялись дистанционно операторами, спрятанными в другой комнате.

Каждый участник должен был за две минуты найти объекты из списка предметов в комнате. Они все должны были найти минимум семь объектов, чтобы претендовать на приз $ 20. Но когда их время истекло, Robovie утверждал, что они нашли только пять объектов.
Затем суть эксперимента заключалась в реакции участников на просчеты робота.



“Большинство участников спорили с Robovie”, - говорит соавтор исследования Хизер Гэри (Heather Gary), докторант кафедры психологии UW. – “Некоторые обвиняли робота во лжи и обмане”.
В интервью 65 процентов участников заявили, что Robovie виноват в некоторой степени за счет ошибочной охоты за сборщиками объектов и в несправедливом лишении участников премии в 20 долларов.

Это говорит о том, что роботы получают возможности в языке и социальном взаимодействии и вполне вероятно, что многие люди будут наказывать робота-гуманоида за вред, который он вызывает.

Они утверждают, что военные превращают гуманоидов в боевые машины и подчиняются управлению и моральной ответственности роботов с учетом судебной практики и законов вооруженного конфликта в тех случаях, когда роботы могут навредить человеку.

Кан также озабочен по поводу морали роботов в период военных действий. “Использование боевых роботов, таких как беспилотные летательные аппараты, отдаляет нас от участия в боевых действиях, но это также может привести к человеческим страданиям, и сделать войну машин более вероятной.”

Комментарии: