В Беркли разработали метод, помогающий роботам видеть будущее - «Новости Банков» » Новости Банков России

Новости Банков

В Беркли разработали метод, помогающий роботам видеть будущее - «Новости Банков»


В Беркли разработали метод, помогающий роботам видеть будущее - «Новости Банков»

Исследователи Калифорнийского университета в Беркли разработали новую технологию обучения роботов, которая позволяет им представить себе последствия своих действий. Теперь машины могут понять, каким образом взаимодействовать с объектами, которые им раньше никогда не встречались.
При помощи этой технологии «визуального предвидения» роботы могут предсказывать то, что увидят их камеры в случае, если они выполнят определенную последовательность действий. Пока сила предвидения машины простирается недалеко — всего на несколько секунд в будущее, но этого достаточно роботу для того, чтобы понять, как передвинуть предметы на столе, ничего не задев. Важнее то, что эти задачи робот учится выполнять без помощи человека и без предварительной информации о физике, окружающей среде или других параметрах объектов.
Это происходит оттого, что визуальное воображение тренируется полностью с нуля в ходе исследований без участия оператора, когда робот самостоятельно передвигает предметы на столе. После этой игровой фазы он создает прогнозирующую модель и использует ее для перемещения новых предметов, которых никогда не видел, сообщает EurekAlert.
В основе этой системы лежит технология глубокого обучения, основанная на динамической нейронной адвекции, которая предсказывает, как пиксели в изображении движутся от одного кадра к другому в результате действий робота. Этот класс моделей позволяет улучшить возможности планирования у машин, давая им возможность выполнять все более сложные задачи.
«Люди на протяжении всей жизни учатся манипулировать предметами безо всяких учителей посредством миллиона итераций с различными предметами. Мы доказали, что возможно построить роботизированную систему, которая будет использовать большое количество автономно собранных данных, чтобы научиться полезным навыкам, в частности, двигать предметы», — говорит Фредерик Эберт, один из исследователей.

Исследователи Калифорнийского университета в Беркли разработали новую технологию обучения роботов, которая позволяет им представить себе последствия своих действий. Теперь машины могут понять, каким образом взаимодействовать с объектами, которые им раньше никогда не встречались. При помощи этой технологии «визуального предвидения» роботы могут предсказывать то, что увидят их камеры в случае, если они выполнят определенную последовательность действий. Пока сила предвидения машины простирается недалеко — всего на несколько секунд в будущее, но этого достаточно роботу для того, чтобы понять, как передвинуть предметы на столе, ничего не задев. Важнее то, что эти задачи робот учится выполнять без помощи человека и без предварительной информации о физике, окружающей среде или других параметрах объектов. Это происходит оттого, что визуальное воображение тренируется полностью с нуля в ходе исследований без участия оператора, когда робот самостоятельно передвигает предметы на столе. После этой игровой фазы он создает прогнозирующую модель и использует ее для перемещения новых предметов, которых никогда не видел, сообщает EurekAlert. В основе этой системы лежит технология глубокого обучения, основанная на динамической нейронной адвекции, которая предсказывает, как пиксели в изображении движутся от одного кадра к другому в результате действий робота. Этот класс моделей позволяет улучшить возможности планирования у машин, давая им возможность выполнять все более сложные задачи. «Люди на протяжении всей жизни учатся манипулировать предметами безо всяких учителей посредством миллиона итераций с различными предметами. Мы доказали, что возможно построить роботизированную систему, которая будет использовать большое количество автономно собранных данных, чтобы научиться полезным навыкам, в частности, двигать предметы», — говорит Фредерик Эберт, один из исследователей.
0
Комментарии для сайта Cackle
Другие новости

Это может то, что вы искали