論文の概要: DiffMimic: Efficient Motion Mimicking with Differentiable Physics
- arxiv url: http://arxiv.org/abs/2304.03274v2
- Date: Wed, 26 Apr 2023 06:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 17:21:03.763954
- Title: DiffMimic: Efficient Motion Mimicking with Differentiable Physics
- Title(参考訳): DiffMimic: 微分物理学による効率的な運動ミミック
- Authors: Jiawei Ren, Cunjun Yu, Siwei Chen, Xiao Ma, Liang Pan, Ziwei Liu
- Abstract要約: 我々は微分可能な物理シミュレータ(DPS)を活用し、DiffMimicと呼ばれる効率的な運動模倣法を提案する。
我々の重要な洞察は、DPSが複雑なポリシー学習タスクを、より単純な状態マッチング問題に向けていることです。
標準ベンチマークでの大規模な実験は、DiffMimicが既存の方法よりもサンプル効率と時間効率が優れていることを示している。
- 参考スコア(独自算出の注目度): 41.442225872857136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion mimicking is a foundational task in physics-based character animation.
However, most existing motion mimicking methods are built upon reinforcement
learning (RL) and suffer from heavy reward engineering, high variance, and slow
convergence with hard explorations. Specifically, they usually take tens of
hours or even days of training to mimic a simple motion sequence, resulting in
poor scalability. In this work, we leverage differentiable physics simulators
(DPS) and propose an efficient motion mimicking method dubbed DiffMimic. Our
key insight is that DPS casts a complex policy learning task to a much simpler
state matching problem. In particular, DPS learns a stable policy by analytical
gradients with ground-truth physical priors hence leading to significantly
faster and stabler convergence than RL-based methods. Moreover, to escape from
local optima, we utilize a Demonstration Replay mechanism to enable stable
gradient backpropagation in a long horizon. Extensive experiments on standard
benchmarks show that DiffMimic has a better sample efficiency and time
efficiency than existing methods (e.g., DeepMimic). Notably, DiffMimic allows a
physically simulated character to learn Backflip after 10 minutes of training
and be able to cycle it after 3 hours of training, while the existing approach
may require about a day of training to cycle Backflip. More importantly, we
hope DiffMimic can benefit more differentiable animation systems with
techniques like differentiable clothes simulation in future research.
- Abstract(参考訳): モーション模倣は物理学に基づくキャラクターアニメーションの基本課題である。
しかし、既存の運動模倣法は強化学習(rl)に基づいて構築されており、高い報酬工学、高い分散、ハードエクスプロレーションによる収束の遅さに苦しむ。
具体的には、単純な動作シーケンスを模倣するために、通常何時間、あるいは何日もトレーニングを要し、スケーラビリティが低下する。
本研究では、微分可能な物理シミュレータ(DPS)を活用し、DiffMimicと呼ばれる効率的な運動模倣法を提案する。
我々の重要な洞察は、DPSが複雑なポリシー学習タスクを、より単純な状態マッチング問題に向けていることです。
特に、DPSは解析的な勾配による安定なポリシーを学習し、したがってRL法よりもはるかに高速で安定な収束をもたらす。
さらに,局所最適から逃れるために,Demonstration Replay機構を用いて,水平方向の安定な勾配バックプロパゲーションを実現する。
標準ベンチマークでの大規模な実験は、DiffMimicが既存の方法(例えばDeepMimic)よりもサンプル効率と時間効率が優れていることを示している。
特にDiffMimicでは、物理シミュレーションされたキャラクターがトレーニングの10分後にBackflipを学習し、3時間のトレーニングの後にサイクルすることができる。
さらに重要なことは、将来の研究で微分可能衣料シミュレーションのような技術により、diffmimicがより微分可能なアニメーションシステムに役立つことを願っている。
関連論文リスト
- Improving Gradient Computation for Differentiable Physics Simulation
with Contacts [10.450509067356148]
接触による剛体シミュレーションについて検討した。
連続衝突検出による勾配計算の改善とTOI(Time-of-Ipact)の利用を提案する。
そこで,TOI-Veでは,解析解と一致する最適制御系列を学習できることを示す。
論文 参考訳(メタデータ) (2023-04-28T21:10:16Z) - MoQuad: Motion-focused Quadruple Construction for Video Contrastive
Learning [10.41936704731324]
本稿では,ビデオコントラスト学習における動作特徴の学習を促進するための,シンプルで効果的なサンプル構築戦略を提案する。
提案手法はMoQuad (Mo- Focus Quadruple Construction) と呼ばれ, 正試料と負試料の両方の外観と動きを巧みに妨害することにより, インスタンス識別を増強する。
単にMoQuadをSimCLRに適用することで、ダウンストリームタスクにおいて、最先端のアートよりも優れたパフォーマンスを達成できることが、広範な実験によって示されている。
論文 参考訳(メタデータ) (2022-12-21T09:26:40Z) - Imitation Learning via Differentiable Physics [26.356669151969953]
逆強化学習(IRL)のような模倣学習(IL)の手法は通常、ダブルループトレーニングプロセスを持つ。
両ループ設計を廃止した新しいIL法,すなわち、微分可能物理学によるImitation Learningを提案する。
ILDは最終性能、収束速度、安定性の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-06-10T04:54:32Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Teaching Robots to Grasp Like Humans: An Interactive Approach [3.3836709236378746]
本研究は,実証と修正に基づいて,人間から把握する複雑な作業がどのように学習されるかを検討する。
より良いデモを提供するように訓練する代わりに、専門家でないユーザには、最初のデモのダイナミクスをインタラクティブに修正する能力が提供される。
論文 参考訳(メタデータ) (2021-10-09T10:27:50Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。