論文の概要: Generalized Animal Imitator: Agile Locomotion with Versatile Motion
Prior
- arxiv url: http://arxiv.org/abs/2310.01408v1
- Date: Mon, 2 Oct 2023 17:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 20:08:27.227502
- Title: Generalized Animal Imitator: Agile Locomotion with Versatile Motion
Prior
- Title(参考訳): general animal imitator: 万能運動を先取りしたアジャイルロコモーション
- Authors: Ruihan Yang, Zhuoqun Chen, Jianhan Ma, Chongyi Zheng, Yiyu Chen, Quan
Nguyen, Xiaolong Wang
- Abstract要約: 本稿では,様々なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作を模倣することで,多様なアジャイルの低レベルスキルを学習することを可能にする。
私たちの理解では、ロボットが特異なコントローラを使って多様なアジャイルの移動タスクを同時に学習できるのは、これが初めてです。
- 参考スコア(独自算出の注目度): 14.822777791674097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The agility of animals, particularly in complex activities such as running,
turning, jumping, and backflipping, stands as an exemplar for robotic system
design. Transferring this suite of behaviors to legged robotic systems
introduces essential inquiries: How can a robot be trained to learn multiple
locomotion behaviors simultaneously? How can the robot execute these tasks with
a smooth transition? And what strategies allow for the integrated application
of these skills? This paper introduces the Versatile Instructable Motion prior
(VIM) - a Reinforcement Learning framework designed to incorporate a range of
agile locomotion tasks suitable for advanced robotic applications. Our
framework enables legged robots to learn diverse agile low-level skills by
imitating animal motions and manually designed motions with Functionality
reward and Stylization reward. While the Functionality reward guides the
robot's ability to adopt varied skills, the Stylization reward ensures
performance alignment with reference motions. Our evaluations of the VIM
framework span both simulation environments and real-world deployment. To our
understanding, this is the first work that allows a robot to concurrently learn
diverse agile locomotion tasks using a singular controller. Further details and
supportive media can be found at our project site:
https://rchalyang.github.io/VIM .
- Abstract(参考訳): 動物の俊敏性、特にランニング、ターン、ジャンプ、バックフリップといった複雑な活動において、ロボットシステム設計の模範となっている。
この一連の行動群を脚のあるロボットシステムに移すと、必須の質問がもたらされる。ロボットはどのようにして複数の歩行行動を同時に学ぶことができるのか?
ロボットはどのようにしてこれらのタスクをスムーズに実行するのか?
そして、これらのスキルを統合的に利用するための戦略は何でしょう?
本稿では,高度ロボットアプリケーションに適した多様なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Instructable Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作を模倣し,機能報酬とスタイライズ報酬を手動で設計することで,ロボットが多様なアジャイルの低レベルスキルを習得することを可能にする。
機能報酬はロボットが様々なスキルを身につける能力を導くが、スティライズ報酬は参照動作とパフォーマンスアライメントを保証する。
シミュレーション環境と実環境の両方にまたがるVIMフレームワークの評価を行った。
私たちの理解では、これはロボットが特異なコントローラを使って多様なアジャイルのロコモーションタスクを同時に学習できる最初の仕事です。
詳細と支援メディアは、プロジェクトのサイト(https://rchalyang.github.io/VIM)で確認できます。
関連論文リスト
- Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - RoboCat: A Self-Improving Generalist Agent for Robotic Manipulation [33.10577695383743]
ロボット操作のためのマルチタスク汎用エージェントRoboCatを提案する。
このデータは、シミュレートされた本物のロボットアームから、さまざまな観察とアクションのセットでモーターコントロールスキルの大規模なレパートリーにまたがる。
RoboCatでは、ゼロショットだけでなく、100-1000例のみを用いて適応することで、新しいタスクやロボットに一般化する能力を実証する。
論文 参考訳(メタデータ) (2023-06-20T17:35:20Z) - Barkour: Benchmarking Animal-level Agility with Quadruped Robots [70.97471756305463]
脚付きロボットのアジリティを定量化するための障害物コースであるBarkourベンチマークを導入する。
犬の機敏性の競争に触発され、様々な障害と時間に基づくスコアリング機構から構成される。
ベンチマークに対処する2つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:49:43Z) - Learning and Adapting Agile Locomotion Skills by Transferring Experience [71.8926510772552]
本稿では,既存のコントローラから新しいタスクを学習するために経験を移譲することで,複雑なロボティクススキルを訓練するためのフレームワークを提案する。
提案手法は,複雑なアジャイルジャンプ行動の学習,後肢を歩いたまま目標地点への移動,新しい環境への適応を可能にする。
論文 参考訳(メタデータ) (2023-04-19T17:37:54Z) - Legs as Manipulator: Pushing Quadrupedal Agility Beyond Locomotion [34.33972863987201]
我々は四足歩行ロボットを訓練し、前脚を使って壁を登り、ボタンを押し、現実世界でオブジェクトインタラクションを行う。
これらのスキルはカリキュラムを用いてシミュレーションで訓練され,提案したsim2real 変種を用いて実世界へ移行する。
我々は,本手法をシミュレーションと実世界の双方で評価し,短距離および長距離のタスクの実行を成功させたことを示す。
論文 参考訳(メタデータ) (2023-03-20T17:59:58Z) - Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors [28.22210425264389]
そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
論文 参考訳(メタデータ) (2022-03-31T16:01:32Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z) - Learning Quadrupedal Locomotion over Challenging Terrain [68.51539602703662]
足の移動はロボティクスの操作領域を劇的に拡張することができる。
足の移動のための従来のコントローラーは、運動プリミティブと反射の実行を明示的にトリガーする精巧な状態マシンに基づいている。
ここでは、自然環境に挑戦する際の足の移動に対して、徹底的に頑健な制御器を提案する。
論文 参考訳(メタデータ) (2020-10-21T19:11:20Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。