論文の概要: Fast Neural Inverse Kinematics on Human Body Motions
- arxiv url: http://arxiv.org/abs/2506.17996v1
- Date: Sun, 22 Jun 2025 11:19:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.690005
- Title: Fast Neural Inverse Kinematics on Human Body Motions
- Title(参考訳): 人体運動における高速神経逆運動学
- Authors: David Tolpin, Sefy Kagarlitsky,
- Abstract要約: マーカーレスモーションキャプチャーは、物理的なマーカーやスーツを必要とせずに人間の動きを追跡することができる。
本稿では,3次元キーポイントから人体の動きをリアルタイムに捉えるための,高速で信頼性の高い神経逆キネマティクスフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Markerless motion capture enables the tracking of human motion without requiring physical markers or suits, offering increased flexibility and reduced costs compared to traditional systems. However, these advantages often come at the expense of higher computational demands and slower inference, limiting their applicability in real-time scenarios. In this technical report, we present a fast and reliable neural inverse kinematics framework designed for real-time capture of human body motions from 3D keypoints. We describe the network architecture, training methodology, and inference procedure in detail. Our framework is evaluated both qualitatively and quantitatively, and we support key design decisions through ablation studies.
- Abstract(参考訳): マーカーレスモーションキャプチャーは、物理的なマーカーやスーツを必要とせずに人間の動きを追跡することができ、従来のシステムに比べて柔軟性とコストの低減を提供する。
しかし、これらの利点は、しばしば高い計算要求とより遅い推論を犠牲にし、リアルタイムシナリオにおける適用性を制限する。
本稿では,3次元キーポイントから人体の動きをリアルタイムに捉えるための,高速で信頼性の高い神経逆運動学フレームワークを提案する。
本稿では,ネットワークアーキテクチャ,トレーニング手法,推論手順について詳述する。
本フレームワークは質的かつ定量的に評価され,アブレーション研究を通じて重要な設計決定を支援する。
関連論文リスト
- MOOSE: Pay Attention to Temporal Dynamics for Video Understanding via Optical Flows [21.969862773424314]
MOOSEは、光フローと空間埋め込みを統合し、時間情報を効率的にモデル化する新しい時間中心ビデオエンコーダである。
従来のモデルとは異なり、MOOSEはビデオモデルをスクラッチからトレーニングする代わりに、リッチで広く訓練済みの視覚的および光学的フローエンコーダを利用する。
論文 参考訳(メタデータ) (2025-06-01T18:53:27Z) - Event-based vision for egomotion estimation using precise event timing [0.6262316762195913]
エゴモーション推定は、自律ナビゲーションやロボット工学といった応用に不可欠である。
慣性センサーに依存する従来の方法は、外部条件に敏感である。
視覚ベースの手法は、シーンで変化が認識されたときにのみデータをキャプチャすることで、効率的な代替手段を提供する。
論文 参考訳(メタデータ) (2025-01-20T15:41:33Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。