論文の概要: DiffMimic: Efficient Motion Mimicking with Differentiable Physics
- arxiv url: http://arxiv.org/abs/2304.03274v2
- Date: Wed, 26 Apr 2023 06:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 17:21:03.763954
- Title: DiffMimic: Efficient Motion Mimicking with Differentiable Physics
- Title(参考訳): DiffMimic: 微分物理学による効率的な運動ミミック
- Authors: Jiawei Ren, Cunjun Yu, Siwei Chen, Xiao Ma, Liang Pan, Ziwei Liu
- Abstract要約: 我々は微分可能な物理シミュレータ(DPS)を活用し、DiffMimicと呼ばれる効率的な運動模倣法を提案する。
我々の重要な洞察は、DPSが複雑なポリシー学習タスクを、より単純な状態マッチング問題に向けていることです。
標準ベンチマークでの大規模な実験は、DiffMimicが既存の方法よりもサンプル効率と時間効率が優れていることを示している。
- 参考スコア(独自算出の注目度): 41.442225872857136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion mimicking is a foundational task in physics-based character animation.
However, most existing motion mimicking methods are built upon reinforcement
learning (RL) and suffer from heavy reward engineering, high variance, and slow
convergence with hard explorations. Specifically, they usually take tens of
hours or even days of training to mimic a simple motion sequence, resulting in
poor scalability. In this work, we leverage differentiable physics simulators
(DPS) and propose an efficient motion mimicking method dubbed DiffMimic. Our
key insight is that DPS casts a complex policy learning task to a much simpler
state matching problem. In particular, DPS learns a stable policy by analytical
gradients with ground-truth physical priors hence leading to significantly
faster and stabler convergence than RL-based methods. Moreover, to escape from
local optima, we utilize a Demonstration Replay mechanism to enable stable
gradient backpropagation in a long horizon. Extensive experiments on standard
benchmarks show that DiffMimic has a better sample efficiency and time
efficiency than existing methods (e.g., DeepMimic). Notably, DiffMimic allows a
physically simulated character to learn Backflip after 10 minutes of training
and be able to cycle it after 3 hours of training, while the existing approach
may require about a day of training to cycle Backflip. More importantly, we
hope DiffMimic can benefit more differentiable animation systems with
techniques like differentiable clothes simulation in future research.
- Abstract(参考訳): モーション模倣は物理学に基づくキャラクターアニメーションの基本課題である。
しかし、既存の運動模倣法は強化学習(rl)に基づいて構築されており、高い報酬工学、高い分散、ハードエクスプロレーションによる収束の遅さに苦しむ。
具体的には、単純な動作シーケンスを模倣するために、通常何時間、あるいは何日もトレーニングを要し、スケーラビリティが低下する。
本研究では、微分可能な物理シミュレータ(DPS)を活用し、DiffMimicと呼ばれる効率的な運動模倣法を提案する。
我々の重要な洞察は、DPSが複雑なポリシー学習タスクを、より単純な状態マッチング問題に向けていることです。
特に、DPSは解析的な勾配による安定なポリシーを学習し、したがってRL法よりもはるかに高速で安定な収束をもたらす。
さらに,局所最適から逃れるために,Demonstration Replay機構を用いて,水平方向の安定な勾配バックプロパゲーションを実現する。
標準ベンチマークでの大規模な実験は、DiffMimicが既存の方法(例えばDeepMimic)よりもサンプル効率と時間効率が優れていることを示している。
特にDiffMimicでは、物理シミュレーションされたキャラクターがトレーニングの10分後にBackflipを学習し、3時間のトレーニングの後にサイクルすることができる。
さらに重要なことは、将来の研究で微分可能衣料シミュレーションのような技術により、diffmimicがより微分可能なアニメーションシステムに役立つことを願っている。
関連論文リスト
- ReinDiffuse: Crafting Physically Plausible Motions with Reinforced Diffusion Model [9.525806425270428]
本稿では、強化学習と運動拡散モデルを組み合わせることで、物理的に信頼できる人間の動きを生成するEmphReinDiffuseを提案する。
動作拡散モデルを用いてパラメータ化された動作分布を出力し、強化学習パラダイムに適合させる。
我々のアプローチは、HumanML3DとKIT-MLという2つの主要なデータセット上で、既存の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-09T16:24:11Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Learning Quadruped Locomotion Using Differentiable Simulation [31.80380408663424]
微分可能シミュレーションは、高速収束と安定した訓練を約束する。
本研究はこれらの課題を克服するための新しい微分可能シミュレーションフレームワークを提案する。
我々のフレームワークは並列化なしで数分で四足歩行を学習できる。
論文 参考訳(メタデータ) (2024-03-21T22:18:59Z) - Improving Gradient Computation for Differentiable Physics Simulation
with Contacts [10.450509067356148]
接触による剛体シミュレーションについて検討した。
連続衝突検出による勾配計算の改善とTOI(Time-of-Ipact)の利用を提案する。
そこで,TOI-Veでは,解析解と一致する最適制御系列を学習できることを示す。
論文 参考訳(メタデータ) (2023-04-28T21:10:16Z) - Imitation Learning via Differentiable Physics [26.356669151969953]
逆強化学習(IRL)のような模倣学習(IL)の手法は通常、ダブルループトレーニングプロセスを持つ。
両ループ設計を廃止した新しいIL法,すなわち、微分可能物理学によるImitation Learningを提案する。
ILDは最終性能、収束速度、安定性の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-06-10T04:54:32Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。