論文の概要: ImDy: Human Inverse Dynamics from Imitated Observations
- arxiv url: http://arxiv.org/abs/2410.17610v1
- Date: Wed, 23 Oct 2024 07:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:56:38.085035
- Title: ImDy: Human Inverse Dynamics from Imitated Observations
- Title(参考訳): ImDy: Imitated Observationsによる人間の逆ダイナミクス
- Authors: Xinpeng Liu, Junxuan Liang, Zili Lin, Haowen Hou, Yong-Lu Li, Cewu Lu,
- Abstract要約: 逆ダイナミクス(ID)は、人間の運動学的観察から駆動トルクを再現することを目的としている。
従来の最適化ベースのIDは高価な実験室のセットアップを必要とし、可用性を制限している。
本稿では、近年進歩的な人間の動作模倣アルゴリズムを利用して、データ駆動方式で人間の逆ダイナミクスを学習することを提案する。
- 参考スコア(独自算出の注目度): 47.994797555884325
- License:
- Abstract: Inverse dynamics (ID), which aims at reproducing the driven torques from human kinematic observations, has been a critical tool for gait analysis. However, it is hindered from wider application to general motion due to its limited scalability. Conventional optimization-based ID requires expensive laboratory setups, restricting its availability. To alleviate this problem, we propose to exploit the recently progressive human motion imitation algorithms to learn human inverse dynamics in a data-driven manner. The key insight is that the human ID knowledge is implicitly possessed by motion imitators, though not directly applicable. In light of this, we devise an efficient data collection pipeline with state-of-the-art motion imitation algorithms and physics simulators, resulting in a large-scale human inverse dynamics benchmark as Imitated Dynamics (ImDy). ImDy contains over 150 hours of motion with joint torque and full-body ground reaction force data. With ImDy, we train a data-driven human inverse dynamics solver ImDyS(olver) in a fully supervised manner, which conducts ID and ground reaction force estimation simultaneously. Experiments on ImDy and real-world data demonstrate the impressive competency of ImDyS in human inverse dynamics and ground reaction force estimation. Moreover, the potential of ImDy(-S) as a fundamental motion analysis tool is exhibited with downstream applications. The project page is https://foruck.github.io/ImDy/.
- Abstract(参考訳): ヒトの運動学的観察から駆動トルクを再現することを目的とした逆ダイナミクス(ID)は歩行解析にとって重要なツールである。
しかし、拡張性に限界があるため、より広い応用から一般的な動作への障害がある。
従来の最適化ベースのIDは高価な実験室のセットアップを必要とし、可用性を制限している。
この問題を軽減するため、近年進歩している人間の動作模倣アルゴリズムを利用して、データ駆動方式で人間の逆ダイナミクスを学習することを提案する。
重要な洞察は、人間のID知識は直接適用されないが、運動模倣者によって暗黙的に所有されていることである。
そこで我々は,最先端の動作模倣アルゴリズムと物理シミュレータを用いた効率的なデータ収集パイプラインを考案し,Imitated Dynamics (ImDy) として大規模な人間逆ダイナミクスベンチマークを行った。
ImDyは150時間以上動作し、関節トルクと全体反応力データを含んでいる。
我々は,ImDyを用いて,データ駆動型逆動的解法ImDyS(olver)を完全教師付きで訓練し,IDと地中反応力の同時推定を行う。
ImDyおよび実世界のデータに関する実験は、人間の逆動力学と地盤反応力推定におけるImDySの印象的な能力を示している。
また, 基本動作解析ツールとしてのImDy(-S) の可能性も, 下流の応用で示された。
プロジェクトページはhttps://foruck.github.io/ImDy/。
関連論文リスト
- Optimal-state Dynamics Estimation for Physics-based Human Motion Capture from Videos [6.093379844890164]
オンライン環境での運動学観測に物理モデルを選択的に組み込む新しい手法を提案する。
リカレントニューラルネットワークを導入し、キネマティックス入力とシミュレートされた動作を熱心にバランスするカルマンフィルタを実現する。
提案手法は,物理に基づく人間のポーズ推定作業に優れ,予測力学の物理的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-10T10:24:59Z) - MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Weakly-supervised Learning of Human Dynamics [26.168147530506953]
本研究では,人間の動作から動的推定を行うための弱教師付き学習フレームワークを提案する。
本手法は,エンド・ツー・エンドトレーニングにおいて,前・逆ダイナミックスのための新しいニューラルネットワーク層を含む。
提案手法は, 接地反応力, 接地反応モーメント, 関節トルクのレグレッションの観点から, 最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-07-17T13:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。