論文の概要: Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis
- arxiv url: http://arxiv.org/abs/2006.07364v2
- Date: Thu, 22 Oct 2020 17:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:12:49.812199
- Title: Residual Force Control for Agile Human Behavior Imitation and Extended
Motion Synthesis
- Title(参考訳): アジャイルな人間の行動模倣と拡張モーション合成のための残留力制御
- Authors: Ye Yuan, Kris Kitani
- Abstract要約: 強化学習は、モーションキャプチャーデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動に大きな可能性を示してきた。
バレエダンスのような洗練された人間のスキルを再現することや、複雑な移行を伴う長期的な人間の振る舞いを安定して模倣することは、依然として非常に困難である。
動作空間に外部残留力を加えることでヒューマノイド制御ポリシーを強化する新しいアプローチである残留力制御(RFC)を提案する。
- 参考スコア(独自算出の注目度): 32.22704734791378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning has shown great promise for synthesizing realistic
human behaviors by learning humanoid control policies from motion capture data.
However, it is still very challenging to reproduce sophisticated human skills
like ballet dance, or to stably imitate long-term human behaviors with complex
transitions. The main difficulty lies in the dynamics mismatch between the
humanoid model and real humans. That is, motions of real humans may not be
physically possible for the humanoid model. To overcome the dynamics mismatch,
we propose a novel approach, residual force control (RFC), that augments a
humanoid control policy by adding external residual forces into the action
space. During training, the RFC-based policy learns to apply residual forces to
the humanoid to compensate for the dynamics mismatch and better imitate the
reference motion. Experiments on a wide range of dynamic motions demonstrate
that our approach outperforms state-of-the-art methods in terms of convergence
speed and the quality of learned motions. Notably, we showcase a physics-based
virtual character empowered by RFC that can perform highly agile ballet dance
moves such as pirouette, arabesque and jet\'e. Furthermore, we propose a
dual-policy control framework, where a kinematic policy and an RFC-based policy
work in tandem to synthesize multi-modal infinite-horizon human motions without
any task guidance or user input. Our approach is the first humanoid control
method that successfully learns from a large-scale human motion dataset
(Human3.6M) and generates diverse long-term motions. Code and videos are
available at https://www.ye-yuan.com/rfc.
- Abstract(参考訳): 強化学習は、モーションキャプチャデータからヒューマノイド制御ポリシーを学習することで、現実的な人間の行動の合成に大いに期待されている。
しかし、バレエダンスのような洗練された人間のスキルを再現したり、複雑な遷移を伴う長期人間の行動を安定的に模倣することは依然として非常に困難である。
主な困難は、ヒューマノイドモデルと実際の人間の間の力学ミスマッチである。
つまり、実際の人間の動きは、ヒューマノイドモデルでは物理的に不可能かもしれない。
動的ミスマッチを克服するために,行動空間に外部残留力を加えることによってヒューマノイド制御ポリシーを補強する新しい手法である残留力制御(rfc)を提案する。
トレーニング中、rfcベースのポリシーは、ダイナミクスのミスマッチを補うためにヒューマノイドに残留力を適用することを学び、基準動作を模倣する。
広い範囲の動的運動実験により,本手法が収束速度と学習運動の質において最先端の手法よりも優れていることを証明した。
特に、RFCによって強化された物理ベースの仮想キャラクタを紹介し、ピロエット、アラベスク、ジェットのような高度にアジャイルなバレエダンスの動きを実行できる。
さらに,マルチモーダルな無限水平運動をタスクガイダンスやユーザ入力なしで合成するために,キネマティックポリシーとRFCベースのポリシーを併用した二重政治制御フレームワークを提案する。
大規模動作データセット(human3.6m)から学習し,様々な長期動作を生成する,初のヒューマノイド制御手法である。
コードとビデオはhttps://www.ye-yuan.com/rfc.com/で入手できる。
関連論文リスト
- ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body Skills [46.16771391136412]
ASAPは、動的ミスマッチに対処し、アジャイルなヒューマノイド全体のスキルを実現するために設計された2段階のフレームワークである。
第1段階では、リターゲットされた人間の動きデータを用いたシミュレーションにおいて、運動追跡ポリシーを事前訓練する。
第2段階では、現実の世界でポリシーをデプロイし、現実のデータを収集し、デルタ(残留)アクションモデルをトレーニングします。
論文 参考訳(メタデータ) (2025-02-03T08:22:46Z) - ExBody2: Advanced Expressive Humanoid Whole-Body Control [16.69009772546575]
動作を模倣するヒューマノイドを制御できる全身追跡フレームワークであるExBody2を提案する。
モデルは強化学習(Reinforcement Learning)を用いてシミュレーションでトレーニングされ、その後現実世界に移行する。
2つのヒューマノイドプラットフォーム上で実験を行い、最先端技術に対するアプローチの優位性を実証する。
論文 参考訳(メタデータ) (2024-12-17T18:59:51Z) - Learning Multi-Modal Whole-Body Control for Real-World Humanoid Robots [13.229028132036321]
Masked Humanoid Controller (MHC)は、立位、歩行、体の一部の動きの模倣をサポートする。
MHCは、立ち上がり、歩行、最適化された基準軌跡、再ターゲットされたビデオクリップ、人間のモーションキャプチャーデータにまたがる行動のライブラリから、部分的にマスクされた動きを模倣する。
実世界のDigi V3ヒューマノイドロボット上でのシミュレート・トゥ・リアルトランスファーを実演する。
論文 参考訳(メタデータ) (2024-07-30T09:10:24Z) - Expressive Whole-Body Control for Humanoid Robots [20.132927075816742]
我々は、人間の動きをできるだけリアルに模倣するために、人間サイズのロボットで全身制御ポリシーを学習する。
シミュレーションとSim2Real転送のトレーニングにより、私たちのポリシーはヒューマノイドロボットを制御して、さまざまなスタイルで歩いたり、人と握手したり、現実世界で人間と踊ったりできる。
論文 参考訳(メタデータ) (2024-02-26T18:09:24Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。