論文の概要: OpenMoCap: Rethinking Optical Motion Capture under Real-world Occlusion
- arxiv url: http://arxiv.org/abs/2508.12610v1
- Date: Mon, 18 Aug 2025 04:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.965972
- Title: OpenMoCap: Rethinking Optical Motion Capture under Real-world Occlusion
- Title(参考訳): OpenMoCap:現実世界のオクルージョンの下での光学式モーションキャプチャ再考
- Authors: Chen Qian, Danyang Li, Xinran Yu, Zheng Yang, Qiang Ma,
- Abstract要約: 我々は,大きな閉塞を有する環境下でのロバストなモーションキャプチャのための新しい動き解決モデルOpenMoCapを提案する。
提案されたOpenMoCapは、実際のデプロイのためにMoSen MoCapシステムに統合されている。
- 参考スコア(独自算出の注目度): 15.708894937156709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical motion capture is a foundational technology driving advancements in cutting-edge fields such as virtual reality and film production. However, system performance suffers severely under large-scale marker occlusions common in real-world applications. An in-depth analysis identifies two primary limitations of current models: (i) the lack of training datasets accurately reflecting realistic marker occlusion patterns, and (ii) the absence of training strategies designed to capture long-range dependencies among markers. To tackle these challenges, we introduce the CMU-Occlu dataset, which incorporates ray tracing techniques to realistically simulate practical marker occlusion patterns. Furthermore, we propose OpenMoCap, a novel motion-solving model designed specifically for robust motion capture in environments with significant occlusions. Leveraging a marker-joint chain inference mechanism, OpenMoCap enables simultaneous optimization and construction of deep constraints between markers and joints. Extensive comparative experiments demonstrate that OpenMoCap consistently outperforms competing methods across diverse scenarios, while the CMU-Occlu dataset opens the door for future studies in robust motion solving. The proposed OpenMoCap is integrated into the MoSen MoCap system for practical deployment. The code is released at: https://github.com/qianchen214/OpenMoCap.
- Abstract(参考訳): 光モーションキャプチャは、仮想現実やフィルム製造といった最先端分野の進歩を促進する基礎技術である。
しかし、システム性能は、現実世界のアプリケーションに共通する大規模マーカーの排除の下で深刻な影響を受ける。
詳細な分析により、現在のモデルの2つの主要な限界が特定される。
一 現実的なマーカー閉塞パターンを正確に反映した訓練データセットの欠如、及び
(II)マーカー間の長距離依存を捉えるためのトレーニング戦略が存在しないこと。
これらの課題に対処するために、実用的なマーカー閉塞パターンを現実的にシミュレートするためにレイトレーシング手法を取り入れたCMU-Occluデータセットを導入する。
さらに,大きな閉塞を有する環境下でのロバストなモーションキャプチャを特化して設計した,新しいモーションソーシングモデルOpenMoCapを提案する。
OpenMoCapはマーカー結合チェーン推論機構を活用し、マーカーとジョイント間の深い制約の同時最適化と構築を可能にする。
大規模な比較実験では、OpenMoCapはさまざまなシナリオで競合するメソッドを一貫して上回り、CMU-Occluデータセットは、堅牢な動作解決に関する将来の研究の扉を開く。
提案されたOpenMoCapは、実際のデプロイのためにMoSen MoCapシステムに統合されている。
コードは、https://github.com/qianchen214/OpenMoCapでリリースされている。
関連論文リスト
- Holistic Surgical Phase Recognition with Hierarchical Input Dependent State Space Models [56.2236083600999]
手術映像解析のための階層型入力依存状態空間モデルを提案する。
本フレームワークは,時間的一貫した視覚特徴抽出器を内蔵し,状態空間モデルヘッドを視覚特徴抽出器に付加し,時間的情報を伝達する。
実験により,本手法は最先端の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2025-06-26T14:43:57Z) - MAMMA: Markerless & Automatic Multi-Person Motion Action Capture [37.06717786024836]
MAMMAはマーカーレスモーションキャプチャパイプラインで、2人のインタラクションシーケンスのマルチビュービデオからSMPL-Xパラメータを復元する。
セグメンテーションマスクに条件付された高密度2次元表面のランドマークを予測する手法を提案する。
提案手法は複雑な対人インタラクションを処理でき,既存の手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2025-06-16T02:04:51Z) - Towards Robust and Controllable Text-to-Motion via Masked Autoregressive Diffusion [33.9786226622757]
テキスト記述から3次元動作を生成するための頑健な動き生成フレームワークMoMADiffを提案する。
我々のモデルはフレキシブルなユーザ提供仕様をサポートし、動き合成の空間的側面と時間的側面の両方を正確に制御できる。
提案手法は, 動作品質, 命令忠実度, 定着度において, 常に最先端のモデルより優れる。
論文 参考訳(メタデータ) (2025-05-16T09:06:15Z) - MambaFlow: A Novel and Flow-guided State Space Model for Scene Flow Estimation [5.369567679302849]
本稿では,マンバに基づくデコーダを用いたシーンフロー推定ネットワークであるマンバを提案する。
MambaFlowは、既存の作業間でリアルタイム推論速度で最先端のパフォーマンスを実現する。
Argoverse 2ベンチマークの実験は、MambaFlowがリアルタイムの推論速度で最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-02-24T07:05:49Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Noise-in, Bias-out: Balanced and Real-time MoCap Solving [13.897997236684283]
機械学習を用いて、雑音のないマーカー推定をリアルタイムで解く。
安価なセンサを用いても、ロバストなマーカーベースのモーションキャプチャ(MoCap)を提供する。
論文 参考訳(メタデータ) (2023-09-25T17:55:24Z) - DeNoising-MOT: Towards Multiple Object Tracking with Severe Occlusions [52.63323657077447]
DNMOTは、複数のオブジェクト追跡のためのエンドツーエンドのトレーニング可能なDeNoising Transformerである。
具体的には、トレーニング中にノイズを伴って軌道を拡大し、エンコーダ・デコーダアーキテクチャのデノイング過程をモデルに学習させる。
我々はMOT17,MOT20,DanceTrackのデータセットについて広範な実験を行い,実験結果から,提案手法が従来の最先端手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-09T04:40:01Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。