論文の概要: Motion Aware ViT-based Framework for Monocular 6-DoF Spacecraft Pose Estimation
- arxiv url: http://arxiv.org/abs/2509.06000v1
- Date: Sun, 07 Sep 2025 10:15:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.811261
- Title: Motion Aware ViT-based Framework for Monocular 6-DoF Spacecraft Pose Estimation
- Title(参考訳): 単眼6-DoF宇宙機姿勢推定のためのViTに基づく動き認識フレームワーク
- Authors: Jose Sosa, Dan Pineau, Arunkumar Rathinam, Abdelrahman Shabayek, Djamila Aouada,
- Abstract要約: 6-DoFのポーズ推定は、複数の宇宙船のミッションにおいて重要な役割を果たす。
既存のポーズ推定アプローチのほとんどは、静的なキーポイントローカライゼーションを持つ単一イメージに依存している。
人間のポーズ推定から宇宙船ポーズ推定への深層学習の枠組みを適用する。
- 参考スコア(独自算出の注目度): 14.875896480287631
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular 6-DoF pose estimation plays an important role in multiple spacecraft missions. Most existing pose estimation approaches rely on single images with static keypoint localisation, failing to exploit valuable temporal information inherent to space operations. In this work, we adapt a deep learning framework from human pose estimation to the spacecraft pose estimation domain that integrates motion-aware heatmaps and optical flow to capture motion dynamics. Our approach combines image features from a Vision Transformer (ViT) encoder with motion cues from a pre-trained optical flow model to localise 2D keypoints. Using the estimates, a Perspective-n-Point (PnP) solver recovers 6-DoF poses from known 2D-3D correspondences. We train and evaluate our method on the SPADES-RGB dataset and further assess its generalisation on real and synthetic data from the SPARK-2024 dataset. Overall, our approach demonstrates improved performance over single-image baselines in both 2D keypoint localisation and 6-DoF pose estimation. Furthermore, it shows promising generalisation capabilities when testing on different data distributions.
- Abstract(参考訳): 単分子6-DoFのポーズ推定は、複数の宇宙船のミッションにおいて重要な役割を果たす。
既存のポーズ推定アプローチのほとんどは、静的なキーポイントのローカライゼーションを持つ単一イメージに依存しており、空間操作に固有の貴重な時間情報を利用できない。
本研究では,人間のポーズ推定からの深層学習の枠組みを,動きを考慮したヒートマップと光フローを統合した宇宙船ポーズ推定領域に適用し,動きのダイナミクスを捉える。
提案手法は,ビジョントランスフォーマー(ViT)エンコーダの映像特徴と,事前学習した光フローモデルからのモーションキューを組み合わせて,2Dキーポイントのローカライズを行う。
推定値を用いて、パースペクティブ-n-Point (PnP) ソルバは、既知の2D-3D対応から6-DoFのポーズを復元する。
我々はSPADES-RGBデータセット上で本手法を訓練・評価し、SPARK-2024データセットから実データと合成データに基づいてその一般化を更に評価する。
提案手法は,2次元キーポイント位置推定と6-DoFポーズ推定の両方において,単一画像ベースラインよりも優れた性能を示す。
さらに、異なるデータ分散をテストする際に、有望な一般化機能を示す。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - SkelFormer: Markerless 3D Pose and Shape Estimation using Skeletal Transformers [57.46911575980854]
マルチビュー人間のポーズと形状推定のための新しいマーカーレスモーションキャプチャパイプラインであるSkelFormerを紹介する。
提案手法は,まず市販の2次元キーポイント推定器を用いて,大規模インザミルドデータに基づいて事前トレーニングを行い,3次元関節位置を求める。
次に、重雑音観測から、関節の位置をポーズと形状の表現にマッピングする回帰に基づく逆運動性骨格変換器を設計する。
論文 参考訳(メタデータ) (2024-04-19T04:51:18Z) - 3D Multi-Object Tracking with Differentiable Pose Estimation [0.0]
室内環境におけるRGB-Dシーケンスからの3次元多対象追跡と再構成のための新しい手法を提案する。
我々は、これらの対応を利用してグラフニューラルネットワークに通知し、すべてのオブジェクトの最適かつ時間的に一貫性のある7-DoFポーズトラジェクトリを解決する。
本手法は,既存の最先端手法に比べて,すべてのテストシーケンスに対して蓄積したMOTAスコアを24.8%向上させる。
論文 参考訳(メタデータ) (2022-06-28T06:46:32Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - PrimA6D: Rotational Primitive Reconstruction for Enhanced and Robust 6D
Pose Estimation [11.873744190924599]
本稿では,1つの画像を入力として,回転プリミティブに基づく6次元オブジェクトポーズ推定を提案する。
変分オートエンコーダ(VAE)を利用して、基礎となるプリミティブとその関連するキーポイントを学習する。
公開データセットに対して評価すると,LINEMOD,Occlusion LINEMOD,およびY誘発データセットよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-06-14T03:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。