論文の概要: Physics-Informed Learning for Human Whole-Body Kinematics Prediction via Sparse IMUs
- arxiv url: http://arxiv.org/abs/2509.25704v1
- Date: Tue, 30 Sep 2025 03:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.993248
- Title: Physics-Informed Learning for Human Whole-Body Kinematics Prediction via Sparse IMUs
- Title(参考訳): スパースIMUを用いた人体体運動学予測のための物理インフォームドラーニング
- Authors: Cheng Guo, Giuseppe L'Erario, Giulio Romualdi, Mattia Leonori, Marta Lorenzini, Arash Ajoudani, Daniele Pucci,
- Abstract要約: 本稿では、知識をトレーニングと推論の両方に統合し、人間の動きを予測する物理インフォームドラーニングフレームワークを提案する。
人間の運動の空間的特徴を考慮に入れたネットワークを提案する。
実験結果から,本手法は動作間のスムーズな遷移を高精度に達成し,未知の対象に対して良好に一般化できることが示唆された。
- 参考スコア(独自算出の注目度): 22.48066288507073
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate and physically feasible human motion prediction is crucial for safe and seamless human-robot collaboration. While recent advancements in human motion capture enable real-time pose estimation, the practical value of many existing approaches is limited by the lack of fu- ture predictions and consideration of physical constraints. Conventional motion prediction schemes rely heavily on past poses, which are not always available in real-world scenarios. To address these limitations, we present a physics-informed learning framework that integrates domain knowledge into both training and inference to predict human motion using inertial measurements from only 5 IMUs. We propose a network that accounts for the spatial characteristics of human movements. During training, we incorporate forward and differential kinematics functions as additional loss components to regularize the learned joint predictions. At the inference stage, we refine the prediction from the previous iteration to update a joint state buffer, which is used as extra inputs to the network. Experimental results demonstrate that our approach achieves high accuracy, smooth transitions between motions, and generalizes well to unseen subjects
- Abstract(参考訳): 正確かつ物理的に実現可能な人間の動作予測は、安全でシームレスな人間とロボットのコラボレーションに不可欠である。
近年の人間のモーションキャプチャの進歩により、リアルタイムのポーズ推定が可能になったが、多くの既存手法の実用的価値は、フーチャー予測の欠如と物理的制約の考慮によって制限されている。
従来の動き予測スキームは過去のポーズに大きく依存しており、現実のシナリオでは必ずしも利用できない。
これらの制約に対処するため,5 IMUの慣性測定を用いて,知識をトレーニングと推論の両方に統合し,人間の動作を予測する物理情報学習フレームワークを提案する。
人間の運動の空間的特徴を考慮に入れたネットワークを提案する。
トレーニング中、学習した関節の予測を規則化するために、前方および微分運動関数を追加の損失成分として組み込む。
推論段階では、前回のイテレーションから予測を洗練して、ネットワークへの追加入力として使用されるジョイントステートバッファを更新する。
実験結果から,本手法は動作間のスムーズな遷移を高い精度で達成し,未知の被験者に対して良好に一般化できることが示唆された。
関連論文リスト
- Human locomotor control timescales depend on the environmental context and sensory input modality [37.48294298569551]
制御時間スケールを定量化する統合データ駆動フレームワークを提案する。
ウォーキングやランニングといったタスクにこのフレームワークを適用します。
本研究の枠組みは,ロポモタ・フット配置制御の時間尺度に影響を与える要因を明らかにする。
論文 参考訳(メタデータ) (2025-03-20T16:57:15Z) - AdvMT: Adversarial Motion Transformer for Long-term Human Motion
Prediction [2.837740438355204]
本稿では,AdvMT(Adversarial Motion Transformer)について述べる。
逆行訓練では,予測の不要な成果物を効果的に削減し,より現実的で流動的な人間の動作の学習を確実にする。
論文 参考訳(メタデータ) (2024-01-10T09:15:50Z) - A Neuro-Symbolic Approach for Enhanced Human Motion Prediction [5.742409080817885]
人間の動作予測のためのニューロシンボリックアプローチ(NeuroSyM)を提案する。
NeuroSyMは、質的軌道計算(QTC)と呼ばれる空間表現に直感的手法を活用することにより、近隣の相互作用を異なる重み付けする
実験の結果,NeuroSyMアプローチは,ほとんどの場合,予測精度においてベースラインアーキテクチャよりも優れていた。
論文 参考訳(メタデータ) (2023-04-23T20:11:40Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Dyadic Human Motion Prediction [119.3376964777803]
本稿では,2つの被験者の相互作用を明示的に推論する動き予測フレームワークを提案する。
具体的には,2つの被験者の運動履歴の相互依存をモデル化する一対の注意機構を導入する。
これにより、より現実的な方法で長期の運動力学を保ち、異常かつ高速な運動を予測することができる。
論文 参考訳(メタデータ) (2021-12-01T10:30:40Z) - Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks [9.06677862854201]
本研究では,混合密度ネットワーク(MDN)モデルを用いて,単一画像から将来の人間の動きを予測する新しい手法を提案する。
MDNのマルチモーダルな性質は、既存のディープヒューマンモーション予測アプローチとは対照的に、様々な将来のモーション仮説の生成を可能にしている。
訓練されたモデルでは、入力として画像を直接取り、与えられた条件を満たす複数の可視運動を生成する。
論文 参考訳(メタデータ) (2021-09-13T08:49:33Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Long Term Motion Prediction Using Keyposes [122.22758311506588]
長期的な予測を達成するには、瞬時に人間のポーズを予測する必要があると論じている。
このようなポーズを「キーポス」と呼び、後続のキーポスを線形に補間して近似する複素運動と呼ぶ。
このようなキープレースのシーケンスを学習することで,将来的には最大5秒まで,非常に長期にわたる動作を予測できることが示される。
論文 参考訳(メタデータ) (2020-12-08T20:45:51Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。