論文の概要: Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors
- arxiv url: http://arxiv.org/abs/2203.17138v1
- Date: Thu, 31 Mar 2022 16:01:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:00:20.911086
- Title: Imitate and Repurpose: Learning Reusable Robot Movement Skills From
Human and Animal Behaviors
- Title(参考訳): Imitate and Repurpose: 人間と動物の行動から再利用可能なロボット運動スキルを学ぶ
- Authors: Steven Bohez, Saran Tunyasuvunakool, Philemon Brakel, Fereshteh
Sadeghi, Leonard Hasenclever, Yuval Tassa, Emilio Parisotto, Jan Humplik,
Tuomas Haarnoja, Roland Hafner, Markus Wulfmeier, Michael Neunert, Ben Moran,
Noah Siegel, Andrea Huber, Francesco Romano, Nathan Batchelor, Federico
Casarini, Josh Merel, Raia Hadsell, Nicolas Heess
- Abstract要約: そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
- 参考スコア(独自算出の注目度): 28.22210425264389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the use of prior knowledge of human and animal movement to
learn reusable locomotion skills for real legged robots. Our approach builds
upon previous work on imitating human or dog Motion Capture (MoCap) data to
learn a movement skill module. Once learned, this skill module can be reused
for complex downstream tasks. Importantly, due to the prior imposed by the
MoCap data, our approach does not require extensive reward engineering to
produce sensible and natural looking behavior at the time of reuse. This makes
it easy to create well-regularized, task-oriented controllers that are suitable
for deployment on real robots. We demonstrate how our skill module can be used
for imitation, and train controllable walking and ball dribbling policies for
both the ANYmal quadruped and OP3 humanoid. These policies are then deployed on
hardware via zero-shot simulation-to-reality transfer. Accompanying videos are
available at https://bit.ly/robot-npmp.
- Abstract(参考訳): そこで本研究では,人間と動物の運動に関する事前知識を用いて,実足歩行ロボットの運動能力を学習する。
我々のアプローチは、人や犬のモーションキャプチャー(MoCap)データを模倣して、運動スキルモジュールを学ぶという以前の研究に基づいている。
学んだら、このスキルモジュールは複雑なダウンストリームタスクに再利用できる。
重要なことは、MoCapデータによって事前に課せられていたため、我々のアプローチは、再利用時に合理的で自然に見える振る舞いを生成するために、広範な報酬工学を必要としないことである。
これにより、実際のロボットへのデプロイに適した、適切に調整されたタスク指向のコントローラを簡単に作成できる。
我々は,我々のスキルモジュールを模倣に利用し,anymal quadrupedとop3 humanoidの両方の歩行およびボールドリブルポリシーをトレーニングできることを実証した。
これらのポリシーはゼロショットシミュレーションから現実への転送を通じてハードウェアにデプロイされる。
ビデオはhttps://bit.ly/robot-npmpで見ることができる。
関連論文リスト
- HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Generalized Animal Imitator: Agile Locomotion with Versatile Motion Prior [14.114972332185044]
本稿では,様々なアジャイルロコモーションタスクを組み込んだ強化学習フレームワークであるVersatile Motion Prior (VIM)を紹介する。
本フレームワークは,動物の動作や手作業による動作を模倣することにより,多様なアジャイルの低レベルスキルを学習することを可能にする。
シミュレーション環境と実環境の両方にまたがるVIMフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-02T17:59:24Z) - Lifelike Agility and Play in Quadrupedal Robots using Reinforcement Learning and Generative Pre-trained Models [28.519964304030236]
そこで本研究では,ロボットに事前学習可能で,再利用可能で,拡張可能な,原始的,環境的,戦略的レベルの知識を構築するための階層的枠組みを提案する。
原始的なモジュールは、動物の動きデータから知識を要約し、言語と画像理解における大きな事前学習モデルに触発されて、ロボットが本物の動物のように振る舞うことを刺激する運動制御信号を生成するための深い生成モデルを導入する。
トレーニングされた階層型コントローラを、社内で開発された四足歩行ロボットMAXロボットに適用し、動物を模倣し、複雑な障害物を横切り、設計上の挑戦的なマルチエージェント・チェイスタグゲームで遊ぶ。
論文 参考訳(メタデータ) (2023-08-29T09:22:12Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。