ООН получила второе открытое письмо с призывом остановить роботов-убийц

22.08.2017 / 07:05
248
0
Рейтинг: + 0 - 0
Добавить в закладки
У кого в закладках
Два года назад Институт Будущего жизни на Международной конференции по искусственному интеллекту (IJCAI) представил открытое письмо, в котором он призвал Организацию Объединенных Наций запретить разработку вооруженных роботов. На днях вышло второе открытое письмо, приуроченное снова к IJCAI 2017, которое подписали более 100 учредителей робототехники и компаний искусственного интеллекта со всего мира. Они требуют от ООН прекратить откладывать переговоры и принимать меры, - передает Robotics.ua

ООН - Бизнес новости робототехники и it общества - Robotics

Всего несколько лет назад идея автономного вооружения находилась исключительно в области научной фантастики, но быстро развивающиеся области ИИ и робототехники превратили это в реальность. К примеру, российский концерн «Калашников» недавно выпустил полностью автоматизированный набор боевых модулей, а Duke Robotics производит беспилотники, вооруженные пулеметами. Все это делает будущее роботизированной войны невероятно близким.

Растущее беспокойство по поводу вооруженных роботов

Первоначальное письмо 2015 года, направленное в ООН, было подписано более чем 1000 различными учеными и исследователями со всего мира, включая Стивена Хокинга, Ноама Хомского и Стива Возняка. ООН в ответ на это созвала группу экспертов в конце 2016 года под знаменем Конвенции о традиционных вооружениях с целью обсуждения и осуществления глобального запрета вооруженного ИИ.

Первые обсуждения данной группы ООН должны были состояться в этом месяце, но они были отменены еще в мае из-за «недостаточного финансирования». Эти бюрократические барьеры наблюдаются в нескольких странах, которые, по-видимому, имеют задолженность с обещанными взносами, угрожая отменить второе запланированное на на ноябрь этого года совещание по смертоносному автономному оружию.

В связи с этим было написано второе открытое письмо, в котором основное внимание сосредоточено на привлечении поддержки со стороны деловых и промышленных кругов робототехники и ИИ. Сто шестнадцать основателей крупных компаний со всего мира уже подписали это новое письмо, в том числе Илон Маск, который наиболее яростно выступает против развития умного ИИ, Mustafa Salesman (основатель Google DeepMind) и Эссен Эстергаард (основатель Universal Robotics).

Не допустить вскрытие «ящика Пандоры»

«Смертоносное автономное оружие угрожает вызвать третью революцию в военных технологиях», - говорится в письме. - «После того, как оно будет разработано, оно позволит вооруженному конфликту разгореться в масштабах в разы больше, чем когда-либо, и намного быстрее, чем люди думают. Это может быть оружие террора, оружие, которое деспоты и террористы смогут использовать против невинных людей, и оружие, которое при сбое в своей системе будет направлено против нас. Нам нужно срочно действовать. Как только ящик Пандоры откроется, его будет трудно закрыть».

Несмотря на то, что много людей снова подписали петицию, этот призыв не вызывает многих надежд. Сторонники запрета хотят, чтобы все разработки в области ИИ были рассмотрены для запрещения, как это происходит с биологическим и химическим оружием, но не все страны согласны с этими мерами.

Хотя большинство стран-членов ООН, включая США, согласились сформировать эту группу экспертов, любое фактическое предложение о запрете, вероятно, столкнется с сильной оппозицией. По данным robotics.ua, в 2015 году британское представительство заявило, что правительство не видит необходимости в этих новых законах. Россия также не поддержала весь этот процесс.

Соединенные Штаты не дали твердой позиции по этому вопросу, и, хотя они поддерживали созыв этой группы ООН, невозможно представить, чтобы самая большая военная сила в мире охотно поддержит предложение, которое будет сдерживать её способность разрабатывать сложные новые системы вооружений, особенно когда Россия буквально «наступает на пятки» в этой отрасли.

Является ли такая широкая коллективная поддержка в академических, исследовательских и отраслевых областях эффективной мерой, еще предстоит увидеть, но это второе открытое письмо, как мы надеемся, побудит к разговору о развитии оружия с ИИ, которому все же есть место в этом мире.

Читайте также: Роботы-убийцы снова вызывают этические дебаты.
Ольга Славинская
248
0 отзывов
0
Рейтинг: + 0 - 0

Комментарии

Отзывы пользователей: Добавить свой отзыв

Оставлять свои комментарии могут только зарегистрированные пользователи.
Авторизуйтесь или зарегистрируйтесь.
Нет комментариев...

...

Материалы по теме:

87
0 отзывов
в закладках у 0 чел.
Рейтинг: + 0 - 0
97
0 отзывов
в закладках у 0 чел.
Рейтинг: + 0 - 0
120
0 отзывов
в закладках у 0 чел.
Рейтинг: + 0 - 0