論文の概要: NAP3D: NeRF Assisted 3D-3D Pose Alignment for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2512.15080v1
- Date: Wed, 17 Dec 2025 04:56:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.388336
- Title: NAP3D: NeRF Assisted 3D-3D Pose Alignment for Autonomous Vehicles
- Title(参考訳): NAP3D:NeRFによる自動運転車用3D-3Dポッドアライメント
- Authors: Gaurav Bansal,
- Abstract要約: この研究は、エージェントの現在の深度画像と事前訓練されたニューラルレージアンスフィールド(NeRF)の3D-3D対応を利用する補完的アプローチである、NeRF-Assisted 3D Pose Alignment (NAP3D)を導入している。
NAP3Dは、これまで観測された場所を再考することに頼ることなく、新しい視点からでも推定されたポーズを洗練させる。
実験により、NAP3Dはカスタムデータセット上で5cm以内のカメラポーズ補正を達成し、2D-3D Perspective-N-Pointベースラインを頑健に上回っている。
- 参考スコア(独自算出の注目度): 1.1168121941015012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate localization is essential for autonomous vehicles, yet sensor noise and drift over time can lead to significant pose estimation errors, particularly in long-horizon environments. A common strategy for correcting accumulated error is visual loop closure in SLAM, which adjusts the pose graph when the agent revisits previously mapped locations. These techniques typically rely on identifying visual mappings between the current view and previously observed scenes and often require fusing data from multiple sensors. In contrast, this work introduces NeRF-Assisted 3D-3D Pose Alignment (NAP3D), a complementary approach that leverages 3D-3D correspondences between the agent's current depth image and a pre-trained Neural Radiance Field (NeRF). By directly aligning 3D points from the observed scene with synthesized points from the NeRF, NAP3D refines the estimated pose even from novel viewpoints, without relying on revisiting previously observed locations. This robust 3D-3D formulation provides advantages over conventional 2D-3D localization methods while remaining comparable in accuracy and applicability. Experiments demonstrate that NAP3D achieves camera pose correction within 5 cm on a custom dataset, robustly outperforming a 2D-3D Perspective-N-Point baseline. On TUM RGB-D, NAP3D consistently improves 3D alignment RMSE by approximately 6 cm compared to this baseline given varying noise, despite PnP achieving lower raw rotation and translation parameter error in some regimes, highlighting NAP3D's improved geometric consistency in 3D space. By providing a lightweight, dataset-agnostic tool, NAP3D complements existing SLAM and localization pipelines when traditional loop closure is unavailable.
- Abstract(参考訳): 正確な位置決めは自動運転車にとって不可欠であるが、センサーノイズと時間とともにドリフトすることで、特にロングホライゾン環境では、重要なポーズ推定エラーにつながる可能性がある。
累積誤差を修正するための一般的な戦略はSLAMの視覚ループクロージャであり、エージェントが以前マップされた場所を再訪したときにポーズグラフを調整する。
これらの技術は、通常、現在のビューと以前観察されたシーンの間の視覚的マッピングを識別することに依存しており、しばしば複数のセンサーからデータを取り出す必要がある。
対照的に、この研究は、エージェントの現在の深度画像と事前訓練されたニューラルレージアンスフィールド(NeRF)の間の3D-3D対応を利用する補完的アプローチである、NeRF-Assisted 3D Pose Alignment (NAP3D)を導入している。
NAP3Dは、観測現場の3D点をNeRFから合成された点と直列させることで、従来観測されていた位置を再考することなく、新しい視点からでも推定されたポーズを洗練する。
このロバストな3D-3D定式化は、従来の2D-3Dローカライゼーション法よりも優れているが、精度と適用性は同等である。
実験により、NAP3Dはカスタムデータセット上で5cm以内のカメラポーズ補正を達成し、2D-3D Perspective-N-Pointベースラインを頑健に上回っている。
TUM RGB-Dでは、PnPが低い生回転と翻訳パラメータの誤差を達成しているにも関わらず、NAP3Dは3D空間における幾何整合性を向上している。
軽量でデータセットに依存しないツールを提供することで、NAP3Dは従来のループクロージャが利用できない場合に、既存のSLAMとローカライゼーションパイプラインを補完する。
関連論文リスト
- Selfi: Self Improving Reconstruction Engine via 3D Geometric Feature Alignment [15.822150318879052]
機能アライメントによる自己改善型3D再構築パイプラインであるSelfiを紹介する。
我々は、リジェクションベースの一貫性損失を使用して軽量な機能アダプタを訓練する。
これにより、NVSとカメラのポーズ推定の両方における最先端のパフォーマンスが実現される。
論文 参考訳(メタデータ) (2025-12-09T18:59:52Z) - SPAN: Spatial-Projection Alignment for Monocular 3D Object Detection [49.12928389918159]
既存の単分子3D検出器は典型的には、切り離された予測パラダイムを通じて、3D境界ボックスの顕著な非線形回帰をテームする。
本稿では2つの主成分を持つ新しい空間射影アライメント(SPAN)を提案する。
SPANは、予測された3次元境界ボックスと接地した3次元境界ボックスの間に明らかに大域的な空間的制約を課し、それによって非結合な特性回帰による空間的ドリフトを補正する。
3D-2Dプロジェクションアライメントは、投影された3Dボックスが、画像平面上の対応する2D検出バウンディングボックス内に密に整列していることを保証する。
論文 参考訳(メタデータ) (2025-11-10T04:48:48Z) - UniPose: Unified Cross-modality Pose Prior Propagation towards RGB-D data for Weakly Supervised 3D Human Pose Estimation [14.52285662885727]
We present UniPose, a unified cross-modality pose before propagation method for weak supervised 3D human pose Estimation。
UniPoseは、大規模RGBデータセットから自己教師付き学習を通じて3Dドメインに2Dアノテーションを転送する。
CMU PanopticとITOPデータセットの実験は、UniPoseが完全に教師されたメソッドと同等のパフォーマンスを達成していることを示している。
論文 参考訳(メタデータ) (2025-09-27T15:49:30Z) - TAPIP3D: Tracking Any Point in Persistent 3D Geometry [25.357437591411347]
本稿では,モノクロおよびRGB-Dビデオにおける長期3次元点追跡の新しい手法であるTAPIP3Dを紹介する。
TAPIP3Dは、ビデオをカメラ安定化機能クラウドとして表現し、深度とカメラモーション情報を活用する。
我々の3D中心の定式化は既存の3D点追跡法よりも性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-20T19:09:43Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。