論文の概要: Physics-informed Ground Reaction Dynamics from Human Motion Capture
- arxiv url: http://arxiv.org/abs/2507.01340v1
- Date: Wed, 02 Jul 2025 04:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.041028
- Title: Physics-informed Ground Reaction Dynamics from Human Motion Capture
- Title(参考訳): 物理インフォームド・グラウンド・リアクション・ダイナミクス
- Authors: Cuong Le, Huy-Phuong Le, Duc Le, Minh-Thien Duong, Van-Binh Nguyen, My-Ha Le,
- Abstract要約: 本研究では,モーションキャプチャーデータから直接人体反応動態を推定する新しい手法を提案する。
我々は,Eulerの積分法とPDアルゴリズムを用いて,モーションキャプチャーデータから地上反応力を計算するための高精度で堅牢な手法を提案する。
提案手法は GroundLink データセット上でテストされた。
- 参考スコア(独自算出の注目度): 4.4795626402834055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Body dynamics are crucial information for the analysis of human motions in important research fields, ranging from biomechanics, sports science to computer vision and graphics. Modern approaches collect the body dynamics, external reactive force specifically, via force plates, synchronizing with human motion capture data, and learn to estimate the dynamics from a black-box deep learning model. Being specialized devices, force plates can only be installed in laboratory setups, imposing a significant limitation on the learning of human dynamics. To this end, we propose a novel method for estimating human ground reaction dynamics directly from the more reliable motion capture data with physics laws and computational simulation as constrains. We introduce a highly accurate and robust method for computing ground reaction forces from motion capture data using Euler's integration scheme and PD algorithm. The physics-based reactive forces are used to inform the learning model about the physics-informed motion dynamics thus improving the estimation accuracy. The proposed approach was tested on the GroundLink dataset, outperforming the baseline model on: 1) the ground reaction force estimation accuracy compared to the force plates measurement; and 2) our simulated root trajectory precision. The implementation code is available at https://github.com/cuongle1206/Phys-GRD
- Abstract(参考訳): 身体力学は、バイオメカニクス、スポーツ科学、コンピュータビジョン、グラフィックスなど、重要な研究分野における人間の動きを分析する上で重要な情報である。
現代のアプローチでは、特に外部の反応力であるボディダイナミクスをフォースプレートを介して収集し、人間のモーションキャプチャーデータと同期させ、ブラックボックスのディープラーニングモデルからダイナミクスを推定する。
特殊な装置であるため、力板は実験室でのみ設置することができ、人間の力学の学習に重大な制限を与える。
そこで本研究では,物理法則と計算シミュレーションを制約として,より信頼性の高いモーションキャプチャデータから直接人体地盤反応のダイナミクスを推定する手法を提案する。
我々は,Eulerの積分法とPDアルゴリズムを用いて,モーションキャプチャーデータから地上反応力を計算するための高精度で堅牢な手法を提案する。
物理に基づく反応力は、物理インフォームド運動力学について学習モデルに通知するために使用され、推定精度が向上する。
提案したアプローチは、GoldLinkデータセットでテストされ、ベースラインモデルよりも優れている。
1) 力板測定との比較による地盤反応力推定精度,及び
2) 根行精度をシミュレートした。
実装コードはhttps://github.com/cuongle1206/Phys-GRDで公開されている。
関連論文リスト
- Spatial-Temporal Graph Diffusion Policy with Kinematic Modeling for Bimanual Robotic Manipulation [88.83749146867665]
既存のアプローチは、遠く離れた次のベストなエンドエフェクタのポーズを予測するポリシーを学びます。
すると、運動に対する対応する関節回転角を逆運動学を用いて計算する。
本稿では,Kinematics 拡張空間テンポアル gRaph diffuser を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:48:35Z) - ImDy: Human Inverse Dynamics from Imitated Observations [47.994797555884325]
逆ダイナミクス(ID)は、人間の運動学的観察から駆動トルクを再現することを目的としている。
従来の最適化ベースのIDは高価な実験室のセットアップを必要とし、可用性を制限している。
本稿では、近年進歩的な人間の動作模倣アルゴリズムを利用して、データ駆動方式で人間の逆ダイナミクスを学習することを提案する。
論文 参考訳(メタデータ) (2024-10-23T07:06:08Z) - Optimal-state Dynamics Estimation for Physics-based Human Motion Capture from Videos [6.093379844890164]
オンライン環境での運動学観測に物理モデルを選択的に組み込む新しい手法を提案する。
リカレントニューラルネットワークを導入し、キネマティックス入力とシミュレートされた動作を熱心にバランスするカルマンフィルタを実現する。
提案手法は,物理に基づく人間のポーズ推定作業に優れ,予測力学の物理的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-10T10:24:59Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。