или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Вопрос этики: роботы должны быть «воспитаны»?

schedule 13.03.2012 в 13:44 link исследование Ronald Craig Arkin Mobile Robot Laboratory Georgia Institute of Technology Patrick Ulam Alan R Wagner этика
​Автор исследования Рональд Аркин Крейг (Ronald Craig Arkin), профессор и директор лаборатории Mobile Robot Laboratory в Технологическом институте Джорджии (Georgia Institute of Technology) в Атланте, штат Джорджия, вместе с исследователями Патриком Уламом (Patrick Ulam) и Аланом Р. Вагнером (Alan R. Wagner), опубликовали их обзор моральных решений в автономных системах в недавнем выпуске журнала Proceedings of the IEEE.


Ronald Craig Arkin (Georgia Institute of Technology - Mobile Robot Laboratory)

 Возможно, на высоком уровне суть исследования заключается в том, что людям нужно начать думать и говорить на эти темы, ведь они столь же важны, как и другие - говорит Аркин. – Больше людей начинают создавать роботов, увеличивая рост потребности этического воспитания роботов. Эти основы все еще находятся в зачаточном состоянии, хотя новое поколение исследователей должно помочь обеспечить их развитие.

Большой вопрос, по мнению исследователей, заключается в том, как мы можем гарантировать, что машины будущего сохраняют нашу человечность и ценности нашего общества. Они объясняют, что, в то время когда не существует простого ответа, некоторые методы могут быть полезны для обеспечения этического поведения роботов.

Первый метод заключается в этическом регуляторе. Это название вдохновленное механическим регулятором на паровом двигателе, который заверял, что мощный двигатель работал безопасно и в пределах производительности. Кроме того, этический регулятор будет гарантировать, что поведение робота будет оставаться в рамках этики. Например, для автономных боевых роботов, эти рамки будут включать в себя принципы, вытекающие из Женевских конвенций и других норм взаимодействия, которые применяются для людей. Гражданские роботы будут иметь также различные наборы границ, характерных для их целей.

Так как не достаточно просто знать, что запрещено, исследователи говорят, что автономные роботы должны также руководить эмоциями в мотивации изменения поведения. Одной из наиболее важных эмоций для роботов является чувство вины, которую робот будет чувствовать или производить всякий раз, когда она нарушает его этические ограничения, связанные с регулятором. Философы и психологи считают вину критической мотивацией нравственного поведения, поскольку это приводит к изменению поведения, основанном на последствиях предыдущих действий. Исследователи здесь предлагают, что когда влияние робота превышает указанный порог, его способности должны быть временно ограничены (например, военные роботы не будут иметь доступ к определенным видам оружия).

Может показаться странным, но исследователи предполагают, что роботы должны также иметь возможность обманывать людей по соответствующим причинам и соответствующим образом, для того, чтобы соблюдать нормы морали. Они отмечают, что в животном мире, обман указывает на социальный интеллект и может иметь преимущества при определенных обстоятельствах. Например, поисково-спасательные роботы, возможно, должны вводить людей в заблуждение для того, чтобы успокоить или устранить панику среди жертв. Роботы, которые заботятся о болезни Альцгеймера, возможно, должны обманывать людей для того, чтобы проводить лечение. В таких ситуациях, использование обмана является морально оправданным, хотя обучение роботов действовать обманно будет сложным.

В конце исследователи затрагивают тему того, как роботы, особенно те, которые заботятся о детях и пожилых людях, питают уважение к человеку, в том числе к автономии человека, неприкосновенности к частной жизни, личности и другим основным правам человека. Исследователи отмечают, что этот вопрос в значительной степени игнорируется в предыдущих исследованиях по этике роботов, которая в основном сосредоточена на физической безопасности. Обеспечение того, чтобы роботы уважали человеческое достоинство, вероятно, потребует междисциплинарного вклада.

Этические рассуждения потребуют более глубокого понимания человеческой морали, процессов мышления и сложностей во многих областях определения только того, что охватывает этическое поведение. Есть также культурные различия, которые также должны быть учтены.

Польза от разработки этического поведения для роботов заключается в том, что консультации могут помочь людям в приеме этически сложных решений. Компьютеризированное этическое консультирование уже существует для права и биоэтики, и аналогичные вычислительные машины могут также повысить этическое поведение в человеческих отношениях.

Возможно, если роботы смогут выступать в качестве ролевых моделей в ситуации, когда у людей есть трудности, действующие в соответствии с моральными нормами, то это может положительно сказаться на моральном поведении людей, но это недоказанные гипотезы, - заявил Аркин.

Комментарии: