論文の概要: Dynamic Inertial Poser (DynaIP): Part-Based Motion Dynamics Learning for
Enhanced Human Pose Estimation with Sparse Inertial Sensors
- arxiv url: http://arxiv.org/abs/2312.02196v2
- Date: Thu, 7 Mar 2024 07:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:27:56.212786
- Title: Dynamic Inertial Poser (DynaIP): Part-Based Motion Dynamics Learning for
Enhanced Human Pose Estimation with Sparse Inertial Sensors
- Title(参考訳): Dynamic Inertial Poser (DynaIP): スパース慣性センサを用いた人物姿勢推定のためのパートベースモーションダイナミクス学習
- Authors: Yu Zhang, Songpengcheng Xia, Lei Chu, Jiarui Yang, Qi Wu, Ling Pei
- Abstract要約: 本稿では,スパース慣性センサを用いた人間のポーズ推定手法を提案する。
さまざまなスケルトンフォーマットからの多様な実慣性モーションキャプチャデータを活用して、動作の多様性とモデル一般化を改善する。
このアプローチは、5つのパブリックデータセットにわたる最先端モデルよりも優れたパフォーマンスを示し、特にDIP-IMUデータセットのポーズエラーを19%削減する。
- 参考スコア(独自算出の注目度): 17.3834029178939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel human pose estimation approach using sparse
inertial sensors, addressing the shortcomings of previous methods reliant on
synthetic data. It leverages a diverse array of real inertial motion capture
data from different skeleton formats to improve motion diversity and model
generalization. This method features two innovative components: a
pseudo-velocity regression model for dynamic motion capture with inertial
sensors, and a part-based model dividing the body and sensor data into three
regions, each focusing on their unique characteristics. The approach
demonstrates superior performance over state-of-the-art models across five
public datasets, notably reducing pose error by 19\% on the DIP-IMU dataset,
thus representing a significant improvement in inertial sensor-based human pose
estimation. Our codes are available at {\url{https://github.com/dx118/dynaip}}.
- Abstract(参考訳): 本稿では,従来の合成データに依存する手法の欠点に対処するため,スパース慣性センサを用いた新しいポーズ推定手法を提案する。
様々なスケルトンフォーマットの実際の慣性モーションキャプチャデータを活用して、動きの多様性とモデルの一般化を改善している。
この方法は、慣性センサを用いた動的モーションキャプチャのための擬似速度回帰モデルと、身体とセンサデータを3つの領域に分割する部分ベースモデルという2つの革新的なコンポーネントを特徴としている。
このアプローチは、5つの公開データセットにわたる最先端モデルよりも優れたパフォーマンスを示し、特にDIP-IMUデータセットにおけるポーズエラーを19倍削減し、慣性センサーに基づく人間のポーズ推定を大幅に改善したことを示す。
我々のコードは {\url{https://github.com/dx118/dynaip}} で入手できる。
関連論文リスト
- MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - Increasing the Robustness of Model Predictions to Missing Sensors in Earth Observation [5.143097874851516]
入力センサドロップアウト(ISensD)とアンサンブルセンサ不変(ESensI)という,マルチセンサシナリオに適した2つの新しい手法について検討した。
これらの手法は, モデル予測の頑健さを, センサの欠如に対して効果的に向上させることを示した。
アンサンブル・マルチセンサー・モデルはセンサの欠如に対して最も頑丈であることが観察された。
論文 参考訳(メタデータ) (2024-07-22T09:58:29Z) - Sensor Data Augmentation from Skeleton Pose Sequences for Improving Human Activity Recognition [5.669438716143601]
HAR(Human Activity Recognition)は、ディープラーニングの普及に大きく貢献していない。
本稿では,センサをベースとしたウェアラブル型HARに対して,ポーズ・ツー・センサ・ネットワークモデルを導入することにより,新たなアプローチを提案する。
コントリビューションには、同時トレーニングの統合、直接ポーズ・ツー・センサ生成、MM-Fitデータセットの包括的な評価が含まれる。
論文 参考訳(メタデータ) (2024-04-25T10:13:18Z) - SkelFormer: Markerless 3D Pose and Shape Estimation using Skeletal Transformers [57.46911575980854]
マルチビュー人間のポーズと形状推定のための新しいマーカーレスモーションキャプチャパイプラインであるSkelFormerを紹介する。
提案手法は,まず市販の2次元キーポイント推定器を用いて,大規模インザミルドデータに基づいて事前トレーニングを行い,3次元関節位置を求める。
次に、重雑音観測から、関節の位置をポーズと形状の表現にマッピングする回帰に基づく逆運動性骨格変換器を設計する。
論文 参考訳(メタデータ) (2024-04-19T04:51:18Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Full-Body Motion Reconstruction with Sparse Sensing from Graph
Perspective [22.761692765158646]
スパースセンサーデータから3Dフルボディのポーズを推定することは、拡張現実と仮想現実における現実的な人間の動きを再現するための重要な手法である。
人体を表すためにBPG(Body Pose Graph)を使用し、その課題をグラフ不足ノードの予測問題に変換する。
提案手法の有効性は,特に下肢動作において,他のベースライン法よりも高い精度で達成できることが証明されている。
論文 参考訳(メタデータ) (2024-01-22T09:29:42Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - H4D: Human 4D Modeling by Learning Neural Compositional Representation [75.34798886466311]
この研究は、動的人間に対するコンパクトで構成的な表現を効果的に学習できる新しい枠組みを提示する。
単純で効果的な線形運動モデルを提案し, 粗く規則化された動き推定を行う。
本手法は, 高精度な動作と詳細な形状を持つ動的ヒトの回復に有効であるだけでなく, 様々な4次元人間関連タスクにも有効であることを示す。
論文 参考訳(メタデータ) (2022-03-02T17:10:49Z) - Dynamical Deep Generative Latent Modeling of 3D Skeletal Motion [15.359134407309726]
本モデルでは,高度に相関した骨格データを時間的変化の空間的基礎の集合に分解する。
これにより、3次元ポーズデータのダイナミックスにおいて意味のある内在状態を解析する動的深部生成潜在モデルが得られる。
論文 参考訳(メタデータ) (2021-06-18T23:58:49Z) - HuMoR: 3D Human Motion Model for Robust Pose Estimation [100.55369985297797]
HuMoRは、時間的ポーズと形状のロバスト推定のための3Dヒューマンモーションモデルです。
モーションシーケンスの各ステップにおけるポーズの変化の分布を学習する条件付き変分オートエンコーダについて紹介する。
本モデルが大規模モーションキャプチャーデータセットのトレーニング後に多様な動きや体型に一般化することを示す。
論文 参考訳(メタデータ) (2021-05-10T21:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。