論文の概要: Garment Inertial Denoiser (GID): Endowing Accurate Motion Capture via Loose IMU Denoiser
- arxiv url: http://arxiv.org/abs/2601.01360v1
- Date: Sun, 04 Jan 2026 04:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.251096
- Title: Garment Inertial Denoiser (GID): Endowing Accurate Motion Capture via Loose IMU Denoiser
- Title(参考訳): Garment Inertial Denoiser (GID) : ルースIMU Denoiserによる精密モーションキャプチャーの応用
- Authors: Jiawei Fang, Ruonan Zheng, Xiaoxia Gao, Shifan Jiang, Anjun Chen, Qi Ye, Shihui Guo,
- Abstract要約: GID(Garment Inertial Denoiser)は,ゆるいMoCapを3段階に分解する軽量なプラグアンドプレイ変換器である。
GIDは位置認識の専門家アーキテクチャを使用し、共有時間バックボーンはグローバルな動きをモデル化し、IMUの専門家の頭文字は局所力学を専門とする。
実験により、GIDはシングルユーザートレーニングから正確なリアルタイムデノジングを可能にし、目に見えないユーザー、動き、衣服にまたがる一般化を可能にする。
- 参考スコア(独自算出の注目度): 24.814697238576088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wearable inertial motion capture (MoCap) provides a portable, occlusion-free, and privacy-preserving alternative to camera-based systems, but its accuracy depends on tightly attached sensors - an intrusive and uncomfortable requirement for daily use. Embedding IMUs into loose-fitting garments is a desirable alternative, yet sensor-body displacement introduces severe, structured, and location-dependent corruption that breaks standard inertial pipelines. We propose GID (Garment Inertial Denoiser), a lightweight, plug-and-play Transformer that factorizes loose-wear MoCap into three stages: (i) location-specific denoising, (ii) adaptive cross-wear fusion, and (iii) general pose prediction. GID uses a location-aware expert architecture, where a shared spatio-temporal backbone models global motion while per-IMU expert heads specialize in local garment dynamics, and a lightweight fusion module ensures cross-part consistency. This inductive bias enables stable training and effective learning from limited paired loose-tight IMU data. We also introduce GarMoCap, a combined public and newly collected dataset covering diverse users, motions, and garments. Experiments show that GID enables accurate, real-time denoising from single-user training and generalizes across unseen users, motions, and garment types, consistently improving state-of-the-art inertial MoCap methods when used as a drop-in module.
- Abstract(参考訳): ウェアラブル慣性モーションキャプチャ(MoCap)は、カメラベースのシステムに代わるポータブルでオクルージョンフリーでプライバシー保護の代替を提供するが、その正確性は密着したセンサーに依存している。
IMUを緩くフィットする衣服に組み込むことは望ましい方法であるが、センサー本体の変位は、標準的な慣性パイプラインを壊す重大で構造化され、位置に依存しない破損をもたらす。
GID(Garment Inertial Denoiser)は,ゆるいMoCapを3段階に分解する軽量なプラグアンドプレイ変換器である。
(i)位置特化
(二)適応型クロスウェア融合、及び
(三)一般のポーズ予測
GIDは位置認識の専門家アーキテクチャを使用し、共有時空間バックボーンはグローバルな動きをモデル化し、IMUあたりのエキスパートヘッドはローカルな衣服のダイナミクスを専門とし、軽量な融合モジュールは部品間の整合性を保証する。
この帰納バイアスは、限られたペアのゆるみのあるIMUデータから安定したトレーニングと効果的な学習を可能にする。
GarMoCapも導入しました。GarMoCapは、さまざまなユーザ、動作、衣服を対象とする、公開と新たに収集されたデータセットです。
実験の結果、GIDはシングルユーザートレーニングから正確なリアルタイムデノベーションを可能にし、未確認のユーザ、モーション、衣服タイプにまたがって一般化し、ドロップインモジュールとして使用する場合の最先端の慣性MoCapメソッドを一貫して改善できることがわかった。
関連論文リスト
- MeMoSORT: Memory-Assisted Filtering and Motion-Adaptive Association Metric for Multi-Person Tracking [3.3959720271630216]
我々は,MeMoSORTを提案する。MeMoSORTはシンプルで,オンラインかつリアルタイムなMOTトラッカーで,2つの重要なイノベーションがある。
MeMoSORTは、メモリ拡張ニューラルネットワークを使用して、仮定されたオブジェクトと実際のオブジェクトの動きのミスマッチを補償する。
DanceTrackとSportsMOTの実験は、MeMoSORTが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-08-13T13:26:31Z) - Human Motion Capture from Loose and Sparse Inertial Sensors with Garment-aware Diffusion Models [25.20942802233326]
Garment Inertial Poser (GaIP) は、粗いIMUセンサーから全身のポーズを推定する方法である。
実験の結果,シミュレーションおよび合成データに基づいて訓練した拡散法は,慣性フルボディポーズ推定器よりも優れていた。
論文 参考訳(メタデータ) (2025-06-18T09:16:36Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Suite-IN: Aggregating Motion Features from Apple Suite for Robust Inertial Navigation [10.634236058278722]
異なる身体部位のセンサーが捉えた動きデータには、局所的な動き情報とグローバルな動き情報の両方が含まれている。
慣性ナビゲーションのためのApple Suiteからの動作データを集約するマルチデバイスディープラーニングフレームワーク Suite-INを提案する。
論文 参考訳(メタデータ) (2024-11-12T14:23:52Z) - CAFuser: Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、コンディショントークンを生成する。
我々のモデルは、特に悪条件シナリオにおいて、ロバスト性と精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - HybridCap: Inertia-aid Monocular Capture of Challenging Human Motions [41.56735523771541]
軽量なハイブリッドモキャップ技術であるHybridCapを提案する。
カメラを4つの慣性測定ユニット(IMU)で拡張し、学習と最適化のフレームワークを組み込む。
フィットネスアクションからラテンダンスまで、挑戦的な動きをしっかりと処理できる。
論文 参考訳(メタデータ) (2022-03-17T12:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。