論文の概要: Ultra Inertial Poser: Scalable Motion Capture and Tracking from Sparse Inertial Sensors and Ultra-Wideband Ranging
- arxiv url: http://arxiv.org/abs/2404.19541v1
- Date: Tue, 30 Apr 2024 13:14:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 14:05:41.225171
- Title: Ultra Inertial Poser: Scalable Motion Capture and Tracking from Sparse Inertial Sensors and Ultra-Wideband Ranging
- Title(参考訳): Ultra Inertial Poser:Sparse Inertial Sensors と Ultra-Wideband Ranging によるスケーラブルなモーションキャプチャと追跡
- Authors: Rayan Armani, Changlin Qian, Jiaxi Jiang, Christian Holz,
- Abstract要約: 我々は,新しい3次元フルボディポーズ推定法であるUltra Inertial Poserを提案する。
本手法は,センサ間距離による慣性追跡においてドリフトとジッタを制約する。
提案手法のPIPおよびTIP上での最先端性能について実験を行った。
- 参考スコア(独自算出の注目度): 23.010268017856824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While camera-based capture systems remain the gold standard for recording human motion, learning-based tracking systems based on sparse wearable sensors are gaining popularity. Most commonly, they use inertial sensors, whose propensity for drift and jitter have so far limited tracking accuracy. In this paper, we propose Ultra Inertial Poser, a novel 3D full body pose estimation method that constrains drift and jitter in inertial tracking via inter-sensor distances. We estimate these distances across sparse sensor setups using a lightweight embedded tracker that augments inexpensive off-the-shelf 6D inertial measurement units with ultra-wideband radio-based ranging$-$dynamically and without the need for stationary reference anchors. Our method then fuses these inter-sensor distances with the 3D states estimated from each sensor Our graph-based machine learning model processes the 3D states and distances to estimate a person's 3D full body pose and translation. To train our model, we synthesize inertial measurements and distance estimates from the motion capture database AMASS. For evaluation, we contribute a novel motion dataset of 10 participants who performed 25 motion types, captured by 6 wearable IMU+UWB trackers and an optical motion capture system, totaling 200 minutes of synchronized sensor data (UIP-DB). Our extensive experiments show state-of-the-art performance for our method over PIP and TIP, reducing position error from $13.62$ to $10.65cm$ ($22\%$ better) and lowering jitter from $1.56$ to $0.055km/s^3$ (a reduction of $97\%$).
- Abstract(参考訳): カメラベースのキャプチャシステムは人間の動きを記録するための金の標準であり続けているが、疎いウェアラブルセンサーに基づく学習ベースのトラッキングシステムは人気を集めている。
最も一般的には慣性センサーを使用し、ドリフトとジッターの確率は今のところ追跡精度が限られている。
本稿では,センサ間距離を用いた慣性トラッキングにおいて,ドリフトとジッタを制約する新しい3次元フルボディポーズ推定法であるUltra Inertial Poserを提案する。
超広帯域無線をベースとした安価な6D慣性測定ユニットを,静止基準アンカーを必要とせず,空隙センサの設置距離を2〜3ドルに拡大する軽量な組込みトラッカーを用いて,これらの距離を推定する。
本手法は,各センサから推定される3次元状態とセンサ間距離を融合し,その3次元状態と距離を処理し,人の全身のポーズと翻訳を推定する。
本モデルのトレーニングには,モーションキャプチャデータベースAMASSから慣性測定と距離推定を合成する。
評価のために,6個のウェアラブルIMU+UWBトラッカーと,200分間の同期センサデータ(UIP-DB)を用いて,25種類のモーションタイプの動作データセットを作成した。
PIP と TIP に対する我々の手法の最先端性能を示し、位置誤差を 13.62$ から 10.65cm$ (22\%$) に下げ、ジッタを $1.56$ から $0.055km/s^3$ (9.7\%$) に下げた。
関連論文リスト
- Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud [10.593320435411714]
レーダベースのトラッキングに適した革新的なソリューションであるRaTrackを紹介します。
本手法は,動き推定モジュールによって強化された動き分割とクラスタリングに焦点を当てる。
RaTrackは移動物体の追跡精度が優れており、最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2023-09-18T13:02:29Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - FUTR3D: A Unified Sensor Fusion Framework for 3D Detection [18.70932813595532]
ほぼ任意のセンサ構成で使用できる3D検出のための最初の統合エンドツーエンドセンサフュージョンフレームワークR3Dを提案する。
R3Dは、クエリベースのModality-Agnostic Feature Sampler (MAFS)と、3D検出のためのセット・ツー・セット・ロスを備えた変換器デコーダを採用している。
NuScenesデータセットでは、R3Dは、さまざまなセンサーの組み合わせで特別に設計されたメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-20T20:41:55Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Real-time, low-cost multi-person 3D pose estimation [8.093696116585717]
伝統的に3次元ポーズ推定には、深度画像を生成するために複数の連結強度カメラや高解像度の飛行時間カメラのような高度な装置が必要である。
本稿では, 高精度なポーズ推定を実現し, より簡単な作業のために設計された飛行時間センサの限界を克服できることを実証する。
この作業は、それまで高度なハードウェア要件と飛行時間技術によって制限されていたシナリオにおける有望な現実的なアプリケーションを開く。
論文 参考訳(メタデータ) (2021-10-11T12:42:00Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。