論文の概要: Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors
- arxiv url: http://arxiv.org/abs/2203.17138v1
- Date: Thu, 31 Mar 2022 16:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:00:20.911086
- Title: Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors
- Title(参考訳): Imitate and Repurpose: 人間と動物の行動から再利用可能なロボット運動スキルを学ぶ
- Authors: Steven Bohez, Saran Tunyasuvunakool, Philemon Brakel, Fereshteh
Sadeghi, Leonard Hasenclever, Yuval Tassa, Emilio Parisotto, Jan Humplik,
Tuomas Haarnoja, Roland Hafner, Markus Wulfmeier, Michael Neunert, Ben Moran,
Noah Siegel, Andrea Huber, Francesco Romano, Nathan Batchelor, Federico
Casarini, Josh Merel, Raia Hadsell, Nicolas Heess
- Abstract要約: そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
- 参考スコア(独自算出の注目度): 28.22210425264389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the use of prior knowledge of human and animal movement to
learn reusable locomotion skills for real legged robots. Our approach builds
upon previous work on imitating human or dog Motion Capture (MoCap) data to
learn a movement skill module. Once learned, this skill module can be reused
for complex downstream tasks. Importantly, due to the prior imposed by the
MoCap data, our approach does not require extensive reward engineering to
produce sensible and natural looking behavior at the time of reuse. This makes
it easy to create well-regularized, task-oriented controllers that are suitable
for deployment on real robots. We demonstrate how our skill module can be used
for imitation, and train controllable walking and ball dribbling policies for
both the ANYmal quadruped and OP3 humanoid. These policies are then deployed on
hardware via zero-shot simulation-to-reality transfer. Accompanying videos are
available at https://bit.ly/robot-npmp.
- Abstract(参考訳): そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
学んだら、このスキルモジュールは複雑なダウンストリームタスクに再利用できる。
重要なことは、MoCapデータによって事前に課せられていたため、我々のアプローチは、再利用時に合理的で自然に見える振る舞いを生成するために、広範な報酬工学を必要としないことである。
これにより、実際のロボットへのデプロイに適した、適切に調整されたタスク指向のコントローラを簡単に作成できる。
我々は,我々のスキルモジュールを模倣に利用し,anymal quadrupedとop3 humanoidの両方の歩行およびボールドリブルポリシーをトレーニングできることを実証した。
これらのポリシーはゼロショットシミュレーションから現実への転送を通じてハードウェアにデプロイされる。
ビデオはhttps://bit.ly/robot-npmpで見ることができる。
関連論文リスト
- Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - Universal Humanoid Motion Representations for Physics-Based Control [74.53927919796139]
本稿では、ヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現について述べる。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Generalized Animal Imitator: Agile Locomotion with Versatile Motion
Prior [14.822777791674097]
本稿では,様々なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作を模倣することで,多様なアジャイルの低レベルスキルを学習することを可能にする。
私たちの理解では、ロボットが特異なコントローラを使って多様なアジャイルの移動タスクを同時に学習できるのは、これが初めてです。
論文 参考訳(メタデータ) (2023-10-02T17:59:24Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。