論文の概要: Mocap Anywhere: Towards Pairwise-Distance based Motion Capture in the Wild (for the Wild)
- arxiv url: http://arxiv.org/abs/2601.19519v1
- Date: Tue, 27 Jan 2026 11:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.308554
- Title: Mocap Anywhere: Towards Pairwise-Distance based Motion Capture in the Wild (for the Wild)
- Title(参考訳): Mocap Anywhere:Wild(Wild用)におけるPairwise-Distanceベースのモーションキャプチャ
- Authors: Ofir Abramovich, Ariel Shamir, Andreas Aristidou,
- Abstract要約: Wild-Poser (WiP)は、ノイズや劣化したPWD測定から3次元関節位置を予測する、コンパクトでリアルタイムなTransformerベースのアーキテクチャである。
WiPは、身体の測定や形状の調整を必要とせずに、非ヒト種を含む様々な形態の被験者を一般化する。
リアルタイムで動作させることで、WiPは低い関節位置誤差を達成し、人および動物の両方の被写体に対して正確な3次元運動再構成を示す。
- 参考スコア(独自算出の注目度): 17.794355768651698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel motion capture system that reconstructs full-body 3D motion using only sparse pairwise distance (PWD) measurements from body-mounted(UWB) sensors. Using time-of-flight ranging between wireless nodes, our method eliminates the need for external cameras, enabling robust operation in uncontrolled and outdoor environments. Unlike traditional optical or inertial systems, our approach is shape-invariant and resilient to environmental constraints such as lighting and magnetic interference. At the core of our system is Wild-Poser (WiP for short), a compact, real-time Transformer-based architecture that directly predicts 3D joint positions from noisy or corrupted PWD measurements, which can later be used for joint rotation reconstruction via learned methods. WiP generalizes across subjects of varying morphologies, including non-human species, without requiring individual body measurements or shape fitting. Operating in real time, WiP achieves low joint position error and demonstrates accurate 3D motion reconstruction for both human and animal subjects in-the-wild. Our empirical analysis highlights its potential for scalable, low-cost, and general purpose motion capture in real-world settings.
- Abstract(参考訳): 本研究では,体装着型(UWB)センサからの疎対距離(PWD)測定のみを用いて,全身3次元運動を再構成する新しいモーションキャプチャシステムを提案する。
本手法は,無線ノード間の飛行時間帯を用いて外部カメラの必要性を排除し,非制御・屋外環境でのロバストな操作を可能にする。
従来の光学系や慣性系とは異なり、我々のアプローチは形状不変であり、照明や磁気干渉といった環境制約に耐性がある。
システムの中心となるWild-Poser(略してWiP)は、ノイズや劣化したPWD測定から直接3次元関節位置を予測する、コンパクトでリアルタイムなトランスフォーマーベースのアーキテクチャである。
WiPは、個々の体の測定や形状の適合を必要とせずに、非ヒト種を含む様々な形態の被験者を一般化する。
リアルタイムで動作させると、WiPは低い関節位置誤差を達成し、人体と動物の両方の正確な3次元運動再構成を示す。
私たちの経験的分析は、現実の環境でのスケーラブルで低コストで汎用的なモーションキャプチャーの可能性を強調します。
関連論文リスト
- Visual Odometry with Transformers [68.453547770334]
特徴抽出により単眼フレームのシーケンスを処理するビジュアル・オドメトリ・トランスフォーマ(VoT)を導入する。
従来の方法とは異なり、VoTは密度の高い幾何学を推定することなくカメラの動きを直接予測し、監視のためにカメラのポーズのみに依存する。
VoTは、より大きなデータセットで効果的にスケールし、より強力なトレーニング済みバックボーンの恩恵を受け、多様なカメラモーションとキャリブレーション設定を一般化し、従来のメソッドよりも3倍以上高速に動作しながらパフォーマンスを向上する。
論文 参考訳(メタデータ) (2025-10-02T17:00:14Z) - 3DPCNet: Pose Canonicalization for Robust Viewpoint-Invariant 3D Kinematic Analysis from Monocular RGB cameras [7.906702226082628]
3DPCNetは3Dジョイント座標で直接動作するコンパクトな推定器に依存しないモジュールである。
本手法は,地中構造IMUセンサデータと強い視覚的対応を示すビデオから加速度信号を生成する。
論文 参考訳(メタデータ) (2025-09-27T18:55:21Z) - Geometric Neural Distance Fields for Learning Human Motion Priors [51.99890740169883]
本研究では,より頑健で時間的に整合性があり,物理的に妥当な3次元運動回復を可能にする新しい3D生成人体運動について紹介する。
AMASSデータセットをトレーニングし、NRMFは複数の入力モードにまたがって著しく一般化する。
論文 参考訳(メタデータ) (2025-09-11T17:58:18Z) - Progressive Inertial Poser: Progressive Real-Time Kinematic Chain Estimation for 3D Full-Body Pose from Three IMU Sensors [25.67875816218477]
スパース追跡信号からのフルボディポーズ推定は、環境条件や記録範囲によって制限されない。
従来の作業では、骨盤と下肢にセンサーを追加することや、キージョイントのグローバルな位置を得るために外部視覚センサーに頼ることが困難だった。
仮想現実技術の実用性を向上させるため,頭部と手首に装着した3つの慣性計測ユニット(IMU)センサから得られた慣性データのみを用いて,全身のポーズを推定した。
論文 参考訳(メタデータ) (2025-05-08T15:28:09Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - CoMo: A novel co-moving 3D camera system [0.0]
CoMoは2台の同期高速カメラと回転ステージを組み合わせた共同移動カメラシステムである。
本稿では,システム"ホーム"構成において,カメラの位置とヨー,ピッチ,ロールの3つの角度を測定する外部パラメータのキャリブレーションについて述べる。
本研究では,3次元実験において,再現および測定した3次元距離を1%の相対誤差で比較することにより,システムのロバスト性と精度を評価する。
論文 参考訳(メタデータ) (2021-01-26T13:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。