или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Stephen Hawking в очередной раз рассказал об угрозах будущего ИИ

schedule 12.10.2015 в 09:24 link Stephen Hawking интервью искусственный интеллект
​Стивен Хокинг предупреждает о потенциале искусственного интеллекта и его способности испортить человечество. Он выражал это апокалиптическое видение и ранее, и много людей поддерживают его, - сообщает Robotics.ua.



Известный физик-теоретик выступил в колонке Reddit, чтобы ответить на вопросы читателей Reddit. Интервью Хокинга набрало более чем 9000 комментариев. Мы хотим представить вам основные вопросы, задаваемые ученому и его ответы на них.

Какую угрозу ИИ может нести для человечества?

Мы должны избегать соблазна антропоморфизировать ИИ и предполагать, что он будет преследовать какие-то конкретные цели. ИИ, который был разработан, а не эволюционировал, в принципе, не может иметь какие-то угрожающие цели. Однако, как подчеркнул Стив Омохундро, чрезвычайно умный ИИ будущего, вероятно, будет преследовать цели, чтобы выжить и получить больше ресурсов для реализации любой цели. А для этого он может черпать любые наши данные, что в общем, представляет собой угрозу нашему мирному существованию.

Может ли ИИ стать умнее, чем его создатель?

Очевидно, может. Мы, люди, развивались, чтобы быть умнее, чем наши обезьяноподобные предки. Эйнштейн был гораздо умнее, чем его родители. Вопрос в грани, где ИИ может стать лучше, чем люди-дизайнеры, так чтобы он мог рекурсивно улучшить себя без помощи человека. Если это произойдет, мы можем столкнуться с проблемами, так как не будем знать, что искусственный разум будет делать дальше.

Являются ли риски ИИ раздутыми?

СМИ часто искажают то, что происходит на самом деле. Реальный риск ИИ не угрожающий, но компетентный.Сверхразумный ИИ будет очень хорошо достигать своих целей, и если эти цели не совпадут с нашими, то мы можем оказаться в беде. К примеру, вы ведь не истребляете муравьев нарочно. Но если вы построите гидроэлектрический объект, угрожающий затопить муравейник, для муравьев это может кончиться плохо. Давайте же не будем размещать человечество в положение этих муравьев.

В сообщении, направленном на предупреждение об угрозе интеллектуальных машин, вы говорите о текущих событиях и прорывах(в таких областях, как машинное обучение). Вы пытаетесь предупредить, что мы должны готовиться заранее к тому, что неизбежно придет в далеком будущем?

Нет консенсуса среди исследователей ИИ о том, как долго займет времени, чтобы построить ИИ человеческого уровня, поэтому, пожалуйста, не верьте никому, кто утверждает, что это произойдет в вашей жизни. Но если это в конце концов все же произойдет, то ещё не факт, что это будет угрожающим. Мы должны смещать ИИ от создания чистого неориентированного искусственного интеллекта для создания благотворного интеллекта. Это может занять десятилетия, чтобы выяснить, как это сделать, так что давайте начнем изучение этой темы сегодня, а не в ночь перед запуском первого суперумного ИИ.

Может ли ИИ иметь основные цели, чтобы выжить, и будет ли это угрозой для человечества?

Как я уже указал ранее, ИИ, который был разработан, а не эволюционировал, не может иметь никаких серьезных целей. Однако, супер-умный интеллект, возможно, сможет накапливать ресурсы, забирая их у нас, и это может обернуться против нас. Так что, давайте просто будем бдительными.

Комментарии: