論文の概要: Camera Pose Refinement via 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2508.17876v1
- Date: Mon, 25 Aug 2025 10:29:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.732931
- Title: Camera Pose Refinement via 3D Gaussian Splatting
- Title(参考訳): 3次元ガウススプラッティングによるカメラポスリファインメント
- Authors: Lulu Hao, Lipu Zhou, Zhenzhong Wei, Xu Wang,
- Abstract要約: カメラポーズ補正は,3次元コンピュータビジョンにおける初期ポーズ推定の精度向上を目的としている。
3次元ガウススプラッティングを利用した新しいカメラポーズ改善フレームワーク(3DGS)を提案する。
本手法は,7シーンとケンブリッジ・ランドマークス・データセットの中央値翻訳と回転誤差を53.3%,56.9%削減する。
- 参考スコア(独自算出の注目度): 9.142303730601162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera pose refinement aims at improving the accuracy of initial pose estimation for applications in 3D computer vision. Most refinement approaches rely on 2D-3D correspondences with specific descriptors or dedicated networks, requiring reconstructing the scene again for a different descriptor or fully retraining the network for each scene. Some recent methods instead infer pose from feature similarity, but their lack of geometry constraints results in less accuracy. To overcome these limitations, we propose a novel camera pose refinement framework leveraging 3D Gaussian Splatting (3DGS), referred to as GS-SMC. Given the widespread usage of 3DGS, our method can employ an existing 3DGS model to render novel views, providing a lightweight solution that can be directly applied to diverse scenes without additional training or fine-tuning. Specifically, we introduce an iterative optimization approach, which refines the camera pose using epipolar geometric constraints among the query and multiple rendered images. Our method allows flexibly choosing feature extractors and matchers to establish these constraints. Extensive empirical evaluations on the 7-Scenes and the Cambridge Landmarks datasets demonstrate that our method outperforms state-of-the-art camera pose refinement approaches, achieving 53.3% and 56.9% reductions in median translation and rotation errors on 7-Scenes, and 40.7% and 53.2% on Cambridge.
- Abstract(参考訳): カメラポーズ補正は,3次元コンピュータビジョンにおける初期ポーズ推定の精度向上を目的としている。
ほとんどの洗練されたアプローチは、特定のディスクリプタや専用ネットワークとの2D-3D対応に依存しており、異なるディスクリプタで再びシーンを再構築するか、各シーンでネットワークを完全に再トレーニングする必要がある。
代わりに、いくつかの最近の手法は特徴の類似性から引き起こされるが、幾何学的制約の欠如により精度が低下する。
これらの制約を克服するために,GS-SMCと呼ばれる3Dガウス・スティング(3DGS)を利用した新しいカメラ・ポーズ・リファインメント・フレームワークを提案する。
提案手法は,3DGSを広範に利用することにより,既存の3DGSモデルを用いて新たなビューを描画し,トレーニングや微調整を伴わずに,多様なシーンに直接適用可能な軽量なソリューションを提供する。
具体的には、クエリと多重レンダリング画像間のエピポーラ幾何学的制約を用いて、カメラのポーズを洗練する反復最適化手法を提案する。
提案手法は,特徴抽出器とマッチング器を柔軟に選択し,これらの制約を確立する。
7シーンとケンブリッジ・ランドマークスのデータセットに対する大規模な実験的な評価は、我々の手法が最先端のカメラよりも優れており、53.3%と56.9%の中央翻訳と7シーンでの回転誤差の減少、40.7%と53.2%をケンブリッジで達成していることを示している。
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - Gaussian Scenes: Pose-Free Sparse-View Scene Reconstruction using Depth-Enhanced Diffusion Priors [5.407319151576265]
本研究では2次元画像の粗い集合から360度シーンのポーズなし(カメラパラメータなしで)再構成のための生成的アプローチを提案する。
画像から画像への生成モデルを提案し、3Dシーンの新たな画像レンダリングと深度マップにおいて、欠落した詳細を描き、アーティファクトを除去する。
論文 参考訳(メタデータ) (2024-11-24T19:34:58Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - 6DGS: 6D Pose Estimation from a Single Image and a 3D Gaussian Splatting Model [17.202161109957608]
シーンを表す3Dガウス・スティング(3DGS)モデルから,ターゲットRGB画像のカメラポーズを推定する6DGSを提案する。
6DGSは、分析バイシンセシス法で典型的な反復的なプロセスを避ける。
実際のシーンでは、平均回転精度を12%改善し、翻訳精度を22%向上させることができる。
論文 参考訳(メタデータ) (2024-07-22T08:55:46Z) - iComMa: Inverting 3D Gaussian Splatting for Camera Pose Estimation via Comparing and Matching [14.737266480464156]
コンピュータビジョンにおける6次元カメラのポーズ推定問題に対処するため,iComMaという手法を提案する。
3次元ガウススプラッティング(3DGS)の反転による高精度カメラポーズ推定法を提案する。
論文 参考訳(メタデータ) (2023-12-14T15:31:33Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。