или войти через:
Ваша корзина пока пуста
favorite_border
Доступно только зарегистрированным пользователям

Аналитика: Почему Google AlphaGo не искусственный интеллект

schedule 21.03.2016 в 08:40 link Google AlphaGo DeepMind аналитика
Что является искусственным интеллектом, а что нет – это в некоторой степени вопрос определения. Известно, что программа AlphaGo, разработанная Google DeepMind, и недавно обыгравшая чемпиона мира Ли Седоля в игру Го, использует подход глубокого обучения для решения довольно сложно вычисляемых задач. Но многие ученые пока не уверены, что она является истинным ИИ, и они могут доказать почему, - сообщает Robotics.ua.



Одним из ключевых вопросов при разработке подобной программы является то, что она должна иметь смысл мира для себя, чтобы развивать свой собственный, внутренний мир для всего, с чем придется столкнуться: слышать, видеть и действовать. Будучи не в состоянии сделать это, вы просто разработаете не продвинутый ИИ, а простое приложение, которое в принципе не понимает, что происходит и имеет узкую область знаний.

Проблема смысла, пожалуй, является самой фундаментальной, и она до сих пор не была решена. Одним из первых, кто выразил это, был ученый Стивен Харнад в своей статье 1990 года «Проблема обоснования символов». Он тогда заметил, что мы явно манипулируем символами, пытаясь решить какую-то задачу, но она все равно остается нерешенной: обоснование независимо от представления существует внутри системы в реальном мире.

Говоря более конкретно, проблема смысла приводит нас к четырем подзадачам:
  • Как структурировать информацию агента (человека или ИИ), получаемую из мира?
  • Как связать эту структурированную информацию о мире, или, принимать вышеупомянутое определение, чтобы построить «значение» для агента?
  • Как синхронизировать этот смысл с другими агентами? 
  • Почему агент должен вообще что-то делать? Как направить все это в движение?
Первая задача о структурировании информации очень хорошо рассмотрена углубленным изучением и подобными алгоритмами, используемыми, например, в программе AlphaGo. Ученые добились огромного прогресса в этой области, отчасти из-за усиления вычислительной мощности и использования графических процессоров, которые особенно хороши для обработки информации. То, что эти алгоритмы делают, это сигнал того, что является чрезвычайно избыточным и выражается в высоком пространстве. Уменьшение его приведет к минимуму потери информации в этом процессе. Другими словами, это «захватывает» и имеет важное значение с точки зрения обработки информации.

Вторая задача о привязанности информации к реальному миру касается «значения», фундаментально относящегося к робототехнике. В любом случае вам нужно тело, чтобы взаимодействовать с миром, поэтому необходимо построить эту связь. Вот почему мы часто говорим, что нет ИИ без робототехники (но есть довольно хорошие примеры робототехники без ИИ, но это другая история). Эту реализацию часто называют «воплощение проблемы» и большинство исследователей в ИИ соглашаются, что интеллект и воплощение – тесно связанные вопросы. Каждое различное тело имеет различную форму интеллекта, и вы можете видеть это довольно ясно в животном царстве.

Она начинается с простых вещей, к примеру, как понять смысл собственных частей тела, и как управлять ими для получения желаемого эффекта; как построить свое собственное понятие пространства, расстояния, цвета и т.д. Это было широко изучено исследователями, как Дж Кевин О'Реган и его «сенсомоторная теория». Это только первый шаг. Далее нужно создать все более и более абстрактные понятия на вершине с этими сенсомоторными структурами.

Читайте также: Аналитика: Оправданы ли угрозы развития ИИ?

Культура – неотъемлемая часть ИИ

Третья задача заключается в основном в вопросе о происхождении культуры. Некоторые животные показывают простую форму культуры и трансгенерационно приобретенной компетенции, но очень ограничены в этом. Только люди достигли порога экспоненциально растущего приобретения знаний, что мы называем культурой. Культура является основным катализатором интеллекта и ИИ без возможности взаимодействовать в культурном отношении, является не более чем академическим интересом.
Однако культура не может быть просто вручную закодирована в машину; она должна быть результатом процесса обучения. Лучший способ сделать это – попытаться понять этот процесс в психологии развития.

Ученые  Жан Пиаже и Майкл Томаселло изучали, как дети приобретают культурные знания. Такой подход породил новую дисциплину в области робототехники, называемую «робототехника развития», которая принимает ребенка в качестве модели (как показано в примере с роботом iCub).

Она также тесно связана с языком обучения. Работа таких умов, как Люк Стилс и многих других показала, что мы можем видеть приобретение языка как эволюционный процесс: агент создает новые значения, взаимодействуя с миром, и использует их, чтобы общаться с другими агентами, выбирая наиболее успешные структуры, которые помогают этой связи (для достижения совместных намерений). После сотен шагов проб и ошибок система эволюционирует лучшее значение и их синтаксический и грамматический перевод.

Этот процесс был экспериментально проверен и показывает поразительное сходство с тем, как развиваются естественные языки. Интересно, что на него приходится мгновенное обучение, когда концепция приобретается в одном кадре, что в большой степени является статистической моделью, которую глубокое обучение не способно объяснить. Несколько исследовательских лабораторий в настоящее время пытаются идти дальше в изучении грамматики, жестов и более сложных культурных конвенций, используя этот подход, в частности, лаборатория ИИ в Aldebaran, французской робототехнической компании, которая теперь является частью SoftBank.

Читайте также: Робот Pepper от Softbank наконец-то поступает в продажу

Внутренняя мотивация

Наконец, четвертая задача связана с тем, что называется «внутренняя мотивация». Почему агент должен делать что-либо вообще. Условия выживания не достаточны, чтобы объяснить поведение человека. Даже те, кто отлично питаются и находятся в безопасности, не сидят сложа руки. Они исследуют, они стараются, и все это обусловлено каким-то внутренним любопытством. По информации robotics.ua, исследователи, как Pierre-Yves Oudeyer, показали, что простые математические формулировки любопытства достаточны, чтобы объяснить невероятно сложное и неожиданное поведение.

Кажется, что-то подобное должно быть внутри системы, чтобы управлять ее желанием пройти предыдущие три этапа: структурирование информации о мире, подключение её к своему телу и созданию смысла, а затем выбрать наиболее «коммуникационно эффективный» вариант для создания совместной культуры, которая позволяет взаимодействовать машине с человеком.

Опять же, быстрый прогресс глубокого изучения и недавний успех ИИ в играх, как Го, очень обнадеживают, потому что они могут привести к большому количеству действительно полезных приложений в медицинских исследованиях, промышленности, охране окружающей среды, а также во многих других областях. Но это только одна часть проблемы. Мы не уверены, что глубокое обучение является главным звеном, которое приведет нас к истинному ИИ, то есть к машине, которая способна научиться жить в мире, естественно взаимодействовать с нами, глубоко понимать сложность наших эмоций и культуры, и в конечном итоге поможет нам сделать мир лучше.

Читайте также: Stephen Hawking снова выразил свое беспокойство по поводу искусственного интеллекта, Стив Возняк выразил свое беспокойство по поводу ИИ, Основатель Rethink Robotics: Искусственный интеллект – это помощь, а не угроза

Комментарии: