или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Основатель Rethink Robotics: Искусственный интеллект – это помощь, а не угроза

schedule 12.11.2014 в 14:04 link Rethink Robotics
​В последнее время наблюдается наплыв статей в прессе и волна людей, которые работают с технологиями, но не с AI, спекулируя о вреде разработок искусственного разума, и тем, что мы должны быть обеспокоены этими технологиями. Родни Брукс, основатель и директор компании Rethink Robotics, выразил свой взгляд на «угрожающий искусственный разум». Это все идет от фундаментальных недоразумений, которые достигнуты в ИИ и от непонимания, как далеко мы на самом деле от того, когда волевые или преднамеренные искусственно разумные существа будут глубоко благожелательными или злонамеренными – сообщает Robotics.ua.



Кстати, эти опасения не первые. Мы видели подобные ситуации в кино в течение длительного времени от «2001: Космическая одиссея» в 1968 году, «Колосс: Проект Форбина» в 1970 году и до «Я, робот» в 2004 году, где во всех случаях компьютеры решали, что людям нельзя доверять вести дела и начинали убивать их. Компьютер знал лучше, чем люди, которые создали его.
Но беспокоиться о разработке «злобного» искусственного интеллекта в течение следующих нескольких сотен лет не стоит. Это беспокойство связано с фундаментальными ошибками людей, которые не видят разницу между реальными последними достижениями в конкретном аспекте ИИ и масштабом и сложностью построения разумного волевого интеллекта.

Последние достижения в области глубокого машинного обучения учат наших машин делать такие вещи, как отличать классы входов и соответствовать кривым для временных данных. Это позволяет нашим машинам «знать» изображение, к примеру, кошки при повышении температуры в конкретном датчике внутри реактивного двигателя. Но это только часть того, как закон Мура применяется к этому очень реальному техническому прогрессу  и приведет к человеческому уровню или интеллекту супер человеческого уровня. В то время как глубокое обучение может придумать категории вещей, входящих в видео, которое коррелирует с кошками, это не поможет  «знать», чем кошка отличается от собаки, ведь понятия очень похожи друг с другом.
Глубокое обучение не поможет в предоставлении машине «намерения», или каких-либо общих целей или желаний. И это не помогает машине объяснить и «знать» как применять свои знания, а также понимать, каковы будут последствия, если знания окажутся ложными.

Угрожающему искусственному интеллекту нужны были бы все эти возможности. Намерения что-то сделать и понимание человеческих целей, мотиваций и поведения будут ключами к зловещему отношению к людям.

Майкл Джордан (Michael Jordan) из Калифорнийского университета в Беркли дал недавно интервью IEEE Spectrum, где он очень четко и тщательно изложил, почему даже в рамках ограниченной области машинного обучения, только один из аспектов интеллекта имеет подводные камни, так как мы еще не имеем твердой науки о понимании ИИ. Он очень вежливо ответил на претензии людей о перспективах эмуляции мозга и рассказал, что должны пройти десятилетия или даже столетия для полного понимания глубинных принципов мозга.

Roomba, робот-пылесос от компании iRobot, является, пожалуй, роботом с большей волей и намерением, чем любые роботы в мире. Большинство других устройств работают в полностью повторяющихся условиях или с человеком-оператором, обеспечивающим второстепенную волю за то, что они должны делать дальше.

Когда Roomba был запланирован выйти на ежедневную или еженедельную уборку, он работал в качестве автономной машины (кроме того, что все модели по-прежнему требовали от человека очистить их контейнер). Он просто выходит и чистит пол по своему  графику.

Дом может иметь мебель, расставленную по-другому, но Roomba находит свой путь вокруг, замедляя движение, когда он приближается к препятствиям, чувствуя их до контакта, а затем отправляется подальше от них. Он легко обнаруживает пороги и лестницу, и избегает падения вниз. Кроме того, он имеет элементарное понимание грязи. Когда акустические датчики в его системе всасывания «слышат» грязь, то он не перестанет исследовать эту область снова и снова, пока грязь не исчезнет, или, по крайней мере, до тех пор, пока он не доберется до заранее определенного порога.

Но Roomba не связывает свое чувство понимания с большим миром. Он не знает, что люди существуют, если он собирается работать в доме. Он не видит различия между человеком и любым другим препятствием; собаками и другими животными, и это заставляет некоторую категорию людей сомневаться в нем. Конечно, робот не имеет никакого понимания, что люди связаны с грязью, которую видит его акустический датчик, и что его реальная миссия заключается в очистке дома этих людей. Он не знает вообще, что существуют дома.

В Rethink Robotics робот Baxter менее смышленый, чем Roomba, но более ловкий и более осведомленный о людях. Человек тренирует Baxter выполнять задачи, затем робот продолжает делать это снова и снова. Но робот «знает» немного о мире с помощью всего лишь небольшого здравого смысла. Например, он знает, что он движет свою руку к коробке, чтобы разместить там деталь и то, что по какой-то причине в его руке находится посторонний предмет, то не имеет смысла продолжать движение. Он также знает, что именно вынуждает его чувствовать предмет в своих руках, как они двигаются и способен реагировать на различные предметы. Он использует это осознание, чтобы поместить необходимые детали в светильники, и он знает, когда он сталкивается с человеком и что он должен немедленно прекратить движение вперед и отступить. Но он не имеет никакой смысловой связи между лицом, которое на его пути и человеком.

А что если использовать IBM Watson как миропонимание для Roomba или Baxter? Никто действительно не пытается это сделать, так как технические трудности здесь огромны, а выгоды пока не известны. Но есть хорошая работа, которая происходит из «облачных вычислений робототехники», соединяющая смысловые знания, которые узнают многие роботы. Это означает, что все, что познается быстро, становится полезным для всех, но в то же время оно обеспечивает большие объемы данных для машинного обучения и не ведет непосредственно к подключении к другим частям машинного обучения.

Этот недостаток связи является новой проблемой. Мы знали об этом в течение многих десятилетий, и она уже давно считается символом заземления. Мы просто не достигли значительного прогресса в этом, и на самом деле не было большого спроса на данные приложения.

Дуг Ленат работает над своим проектом Cyc в течение двадцати лет. Он и его команда собрали миллионы из тщательно логических предложений, чтобы описать мир, и то как связаны понятия в мире, чтобы обеспечить кодирование здравого смысла, зная, что всю информацию мы, люди, собирали в течение нашего детства. В то время как были проделаны героические усилия, они не привели к системе AI быть в состоянии освоить даже простое понимание мира. Попытка расширения коллекции детальных знаний несколько лет назад была проведена Пушпиндером Сингхом в Массачусетском технологическом институте, который решил попробовать использовать мудрость людей и создать веб-сайт Open Mind, в котором участвовал ряд интерфейсов, которые обычные люди могли бы использовать для общих знаний. Интерфейсы колебались от набора простых повествовательных предложений в простом английском языке, чтобы классифицировать формы объектов. Они использовали разные способы, чтобы система автоматически добывала миллионы отношений с этими исходными данными. Знание, представленное как Cyc и открытый разум, оказалось очень полезным для многих исследовательских проектов, но исследователи все еще пытаются использовать его в изменении работы систем ИИ.

Почему так много лет? Для сравнения, мы должны были использовать крылатые летательные аппараты более чем 100 лет. Но только сейчас люди, как Russ Tedrake в MIT CSAIL, смогли заставить их приземлиться на ветке, как любая птица делает это, по крайней мере, каждую мкс. Было ли это просто законом Мура, который позволил начать весь этот процесс? Не совсем так. Нужно выяснить особенности, проблемы и режимы аппарата и т.д. через математическое понимание уравнений. Закон Мура помог MATLAB и другим лабораториям, но это не было просто вопросом о больших вычислениях полета каким-то волшебным образом. Этот процесс занял долгое, долгое время.

Нужно ожидать больше вычислений, чтобы просто добраться до умышленного интеллекта, который понимает, как выглядит мир. И, есть еще категория ошибок, которые мы можем сделать здесь: что является интеллектуальным ярлыком, который говорит, что вычисление и мозги - это то же самое. Может быть, но, возможно, и нет.

Когда же это происходило? В 1930? Тьюринг был вдохновлен тем, как «люди-компьютеры» делали расчеты для физиков и экспертов баллистики, как последовали простых наборов правил при расчете производить первые модели абстрактных вычислений. В 1940? Когда Маккалоу и Питтс в Массачусетском технологическом институте использовали то, что было известно о нейронах и их аксонах и дендритах, чтобы придумать модели, как вычисление может быть реализовано аппаратно с очень абстрактными моделями этих нейронов. Мозги были метафорами, используемыми, чтобы выяснить, как сделать вычисления. За последние 65 лет эти модели уже сделали переворот вокруг, и люди используют компьютеры в качестве метафоры для мозгов настолько, что огромные ресурсы были посвящены «целым моделированиям мозга». Покажите моделирование мозга простого червя, который производит все свои модели поведения, и тогда мы, возможно, начнем верить, что попытки моделирования коры головного мозга человека имеют шансы на успех в следующие 50 лет.

Для того, чтобы иметь успешный волевой ИИ, особенно тот, который может быть угрожающим, ему потребуется непосредственное понимание мира, он должен иметь ловкие руки или другие инструменты, которые могли бы манипулировать людьми, и иметь глубокое понимание людей, чтобы перехитрить их. Каждый из них требует намного сложнее инноваций, чем посадка беспилотника на ветку дерева. Это займет много глубоких мыслей и тяжелой работы тысяч ученых и инженеров. И, скорее всего, для этого нужны века.

Наука приняла тот факт, что мир круглый, произошла эволюция, изменение климата и т.д. Наука об ИИ только началась, и даже в масштабе времени является полностью открытой.
Просто, как открытый вопрос о временной шкале, когда у нас ИИ будет на уровне человеческого, как подчеркивается в недавнем докладе Стюарта Армстронга и Кайя Сотала в Машинно-исследовательском институте разведки - организации, которая сама по себе имеет исследователей, которые беспокоятся об угрозе ИИ. Но в этом более трезвом докладе авторы анализируют 95 предсказаний, сделанных в период между 1950 и настоящим временем, когда уровень ИИ приобретет человеческий. Они показывают, что нет никакой разницы между прогнозами, сделанными экспертами и неспециалистами. И они также доказывают, что в течение этого 60 летнего срока есть сильный уклон в сторону прогнозирования приобретения ИИ человеческого уровня как между 15 и 25 лет с момента предсказания. Это значит, что никто ничего не знает, они просто гадают и исторически так далеки, а большинство прогнозов откровенно бессмысленны!

Так что, расслабьтесь. Если нам повезет, то в ближайшие 30 лет мы получим ИИ с умом ящерицы и роботов, использующих искусственный разум в качестве полезного инструмента. И они, вероятно, не будут в действительности понимать нас столь серьезно. Беспокойство о ИИ, который будет умышленно угрожать нам – это чисто слухи и огромная трата времени.
Давайте жить и изобретать роботов лучше и умнее. Это займет много времени, но будет приносить награды на каждом шагу. Роботы станут изобилием в наших домах, магазинах, на фермах, в офисах, больницах и всех рабочих местах, и мы даже не будем знать, как мы жили без них.

Комментарии: