Миниатюрный робот-гепард Массачусетского технологического института побил свой личный рекорд скорости, разогнавшись до 14,04 км/ч благодаря новой системе обучения с подкреплением без использования моделей, которая позволяет роботу самостоятельно определять лучший способ бега и позволяет ему адаптироваться к различной местности, не полагаясь на человеческий анализ.
Мини-гепард — не самый быстрый четвероногий робот. В 2012 году его более крупный брат- гепард достиг максимальной скорости 45,5 км/ч, но мини-гепард, разработанный Лабораторией ИИ Массачусетского технологического института и Институтом ИИ и фундаментальных взаимодействий (IAIFI) Национального научного фонда, гораздо более проворный. и способен учиться, даже не делая шага.
В новом видео можно увидеть, как четвероногий робот врезается в препятствия и восстанавливается, мчится через препятствия, бежит с одной выведенной из строя ногой и адаптируется к скользкой, обледенелой местности, а также холмам из рыхлого гравия. Эта адаптивность достигается благодаря простой нейронной сети, которая может оценивать новые ситуации, которые могут подвергнуть ее аппаратную часть сильному стрессу.
Обычно движение робота контролируется системой, которая использует данные, основанные на анализе движения механических конечностей, для создания моделей, служащих направляющими. Однако эти модели часто неэффективны и неадекватны, поскольку невозможно предусмотреть все непредвиденные обстоятельства.
Когда робот работает на максимальной скорости, он работает на пределе возможностей своего оборудования, что делает его очень сложным для моделирования, поэтому роботу трудно быстро адаптироваться к внезапным изменениям в окружающей среде. Чтобы преодолеть это, команда Массачусетского технологического института выбрала роботов, разработанных на основе анализа, таких как Spot от Boston Dynamics , которые полагаются на людей, анализирующих физику движения и вручную настраивающих аппаратное и программное обеспечение робота.
В этом робот учится методом проб и ошибок без участия человека. Если робот имеет достаточный опыт работы на разных участках, его можно заставить автоматически улучшать свое поведение. И этот опыт даже не обязательно должен быть в реальном мире. По словам команды, используя симуляции, Mini-Cheetah может накопить 100-дневный опыт за три часа, стоя на месте.
«Мы разработали подход, с помощью которого поведение робота улучшается на основе смоделированного опыта, и наш подход также позволяет успешно применять эти изученные модели поведения в реальном мире», — сказал аспирант Массачусетского технологического института Габриэль Марголис и постдоктор IAIFI Ге Ян. «Интуиция, объясняющая, почему навыки бега робота хорошо работают в реальном мире, заключается в следующем: из всех сред, которые он видит в этом симуляторе, некоторые обучат робота навыкам, полезным в реальном мире. При работе в реальном мире наш контроллер определяет и применяет соответствующие навыки в режиме реального времени».
Исследователи утверждают, что с помощью такой системы можно масштабировать технологию, чего не может сделать традиционная парадигма.
«Более практичный способ создать робота с множеством разнообразных навыков — это сказать роботу, что делать, и дать ему понять, как это сделать», — добавили Марголис и Янг. «Наша система является примером этого. В нашей лаборатории мы начали применять эту парадигму к другим роботизированным системам, включая руки, которые могут поднимать и манипулировать многими различными объектами».
На видео ниже показан мини-гепард, показывающий, чему он научился.
Изображения: Массачусетский технологический институт
Будьте в курсе в удобном формате, присоединяйтесь: TG-канал и ВК
Бесплатная служба распространения новостей для научных организаций и стартапов
hello@technovery.com