論文の概要: Lifelike Agility and Play on Quadrupedal Robots using Reinforcement
Learning and Generative Pre-trained Models
- arxiv url: http://arxiv.org/abs/2308.15143v1
- Date: Tue, 29 Aug 2023 09:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 15:00:31.627668
- Title: Lifelike Agility and Play on Quadrupedal Robots using Reinforcement
Learning and Generative Pre-trained Models
- Title(参考訳): 強化学習と生成事前学習モデルを用いた四足歩行ロボットの生活習慣と遊び
- Authors: Lei Han, Qingxu Zhu, Jiapeng Sheng, Chong Zhang, Tingguang Li, Yizheng
Zhang, He Zhang, Yuzhen Liu, Cheng Zhou, Rui Zhao, Jie Li, Yufeng Zhang, Rui
Wang, Wanchao Chi, Xiong Li, Yonghui Zhu, Lingzhu Xiang, Xiao Teng, Zhengyou
Zhang
- Abstract要約: 本研究では,複雑な環境下でのライフスタイルの機敏さと戦略を生かした実際の動物のように,脚付きロボットを駆動する枠組みを提案する。
本稿では,ロボットが本物の動物のように振る舞うことを刺激するモーター制御信号を生成するための,高度な深部生成モデルの力を紹介する。
訓練されたマルチレベルコントローラをMAXロボットに適用し、動物を模倣し、複雑な障害物を横切り、設計上の挑戦的なマルチエージェントのチェイスタッグゲームでプレイする。
- 参考スコア(独自算出の注目度): 28.963502341592612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Summarizing knowledge from animals and human beings inspires robotic
innovations. In this work, we propose a framework for driving legged robots act
like real animals with lifelike agility and strategy in complex environments.
Inspired by large pre-trained models witnessed with impressive performance in
language and image understanding, we introduce the power of advanced deep
generative models to produce motor control signals stimulating legged robots to
act like real animals. Unlike conventional controllers and end-to-end RL
methods that are task-specific, we propose to pre-train generative models over
animal motion datasets to preserve expressive knowledge of animal behavior. The
pre-trained model holds sufficient primitive-level knowledge yet is
environment-agnostic. It is then reused for a successive stage of learning to
align with the environments by traversing a number of challenging obstacles
that are rarely considered in previous approaches, including creeping through
narrow spaces, jumping over hurdles, freerunning over scattered blocks, etc.
Finally, a task-specific controller is trained to solve complex downstream
tasks by reusing the knowledge from previous stages. Enriching the knowledge
regarding each stage does not affect the usage of other levels of knowledge.
This flexible framework offers the possibility of continual knowledge
accumulation at different levels. We successfully apply the trained multi-level
controllers to the MAX robot, a quadrupedal robot developed in-house, to mimic
animals, traverse complex obstacles, and play in a designed challenging
multi-agent Chase Tag Game, where lifelike agility and strategy emerge on the
robots. The present research pushes the frontier of robot control with new
insights on reusing multi-level pre-trained knowledge and solving highly
complex downstream tasks in the real world.
- Abstract(参考訳): 動物や人間からの知識を要約することは、ロボットのイノベーションを刺激する。
本研究では,複雑な環境下での生活習慣や戦略を生かした実際の動物のように,脚のあるロボットを駆動する枠組みを提案する。
言語や画像理解における印象的なパフォーマンスを実感する大きな事前学習モデルに触発されて,ロボットが本物の動物のように振る舞うことを刺激するモーター制御信号を生成する,高度な深層生成モデルの力を導入する。
タスク固有な従来のコントローラやエンド・ツー・エンドのRLとは異なり,動物行動の表現的知識を維持するために,動物行動データセットを用いた事前学習モデルを提案する。
事前学習されたモデルは十分なプリミティブレベルの知識を持っているが、環境に依存しない。
その後、狭い空間を乗り越えたり、ハードルを飛び越えたり、散らばったブロックの上を自由に走ったりといった、以前のアプローチでは考えられない多くの難題を乗り越えて、環境に合わせた学習の段階に再利用される。
最後に、タスク固有のコントローラは、以前の段階からの知識を再利用することで、複雑な下流タスクを解決するように訓練される。
各段階に関する知識を充実させることは、他のレベルの知識の使用に影響を与えない。
この柔軟なフレームワークは、異なるレベルで継続的な知識蓄積の可能性を提供します。
トレーニングされたマルチレベルコントローラをMAXロボットに適用し、室内で開発された四足歩行ロボットで、動物を模倣し、複雑な障害物を横切り、設計上の挑戦的なマルチエージェントのチェイスタッグゲームでプレイする。
本研究は,ロボット制御のフロンティアに,多段階事前学習知識の再利用と,現実世界における高度に複雑な下流課題の解決に関する新たな洞察を与えるものである。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Generalized Animal Imitator: Agile Locomotion with Versatile Motion Prior [14.114972332185044]
本稿では,様々なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作や手作業による動作を模倣することにより,多様なアジャイルの低レベルスキルを学習することを可能にする。
シミュレーション環境と実環境の両方にまたがるVIMフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-02T17:59:24Z) - RoboCat: A Self-Improving Generalist Agent for Robotic Manipulation [33.10577695383743]
ロボット操作のためのマルチタスク汎用エージェントRoboCatを提案する。
このデータは、シミュレートされた本物のロボットアームから、さまざまな観察とアクションのセットでモーターコントロールスキルの大規模なレパートリーにまたがる。
RoboCatでは、ゼロショットだけでなく、100-1000例のみを用いて適応することで、新しいタスクやロボットに一般化する能力を実証する。
論文 参考訳(メタデータ) (2023-06-20T17:35:20Z) - Surfer: Progressive Reasoning with World Models for Robotic Manipulation [51.26109827779267]
本稿では,新しいシンプルなロボット操作フレームワークであるSurferを紹介する。
Surferは、ロボット操作を視覚シーンの状態伝達として扱い、それをアクションとシーンという2つの部分に分割する。
これは世界モデルに基づいており、ロボット操作を視覚シーンの状態伝達として扱い、アクションとシーンの2つの部分に分けられる。
論文 参考訳(メタデータ) (2023-06-20T07:06:04Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Real-World Humanoid Locomotion with Reinforcement Learning [92.85934954371099]
実世界におけるヒューマノイド移動に対する完全学習型アプローチを提案する。
コントローラーは様々な屋外の地形の上を歩けるし、外乱に対して頑丈で、状況に応じて適応できる。
論文 参考訳(メタデータ) (2023-03-06T18:59:09Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors [28.22210425264389]
そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
論文 参考訳(メタデータ) (2022-03-31T16:01:32Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。