論文の概要: GSVisLoc: Generalizable Visual Localization for Gaussian Splatting Scene Representations
- arxiv url: http://arxiv.org/abs/2508.18242v1
- Date: Mon, 25 Aug 2025 17:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.894484
- Title: GSVisLoc: Generalizable Visual Localization for Gaussian Splatting Scene Representations
- Title(参考訳): GSVisLoc:ガウススティングシーン表現のための一般化可能な視覚的位置決め
- Authors: Fadi Khatib, Dror Moran, Guy Trostianetsky, Yoni Kasten, Meirav Galun, Ronen Basri,
- Abstract要約: GSVisLocは3次元ガウススプラッティング(3DGS)シーン表現用に設計された視覚的ローカライズ手法である。
シーン特徴と画像特徴とを頑健にマッチングすることで、これを実現する。
提案アルゴリズムは,まず粗いマッチング,次にきめ細かなマッチング,そして最後に,正確な最終的な推定値に対するポーズ補正を適用することで,3つのステップで進行する。
- 参考スコア(独自算出の注目度): 20.526639308216755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GSVisLoc, a visual localization method designed for 3D Gaussian Splatting (3DGS) scene representations. Given a 3DGS model of a scene and a query image, our goal is to estimate the camera's position and orientation. We accomplish this by robustly matching scene features to image features. Scene features are produced by downsampling and encoding the 3D Gaussians while image features are obtained by encoding image patches. Our algorithm proceeds in three steps, starting with coarse matching, then fine matching, and finally by applying pose refinement for an accurate final estimate. Importantly, our method leverages the explicit 3DGS scene representation for visual localization without requiring modifications, retraining, or additional reference images. We evaluate GSVisLoc on both indoor and outdoor scenes, demonstrating competitive localization performance on standard benchmarks while outperforming existing 3DGS-based baselines. Moreover, our approach generalizes effectively to novel scenes without additional training.
- Abstract(参考訳): GSVisLocは3次元ガウススプラッティング(3DGS)シーン表現用に設計された視覚的ローカライズ手法である。
シーンの3DGSモデルとクエリ画像から、カメラの位置と向きを推定することを目的としている。
シーン特徴と画像特徴とを頑健にマッチングすることで、これを実現する。
シーン特徴は3Dガウスアンをダウンサンプリングして符号化し、画像特徴は画像パッチを符号化することで得られる。
提案アルゴリズムは,まず粗いマッチング,次にきめ細かなマッチング,そして最後に,正確な最終的な推定値に対するポーズ補正を適用することで,3つのステップで進行する。
重要なことは、3DGSシーンの明示的な表現を、修正、再訓練、参照画像の追加を必要とせず、視覚的位置付けに活用することである。
室内および屋外の両方でGSVisLocを評価し,既存の3DGSベースラインを上回りながら,標準ベンチマーク上での競争的ローカライゼーション性能を実証した。
さらに,本手法は,付加的な訓練を伴わずに,新規シーンに効果的に一般化する。
関連論文リスト
- Gaussian Splatting Feature Fields for Privacy-Preserving Visual Localization [29.793562435104707]
本稿では,3DGSモデルと暗黙的特徴場を組み合わせた視覚的ローカライゼーションのためのシーン表現を提案する。
表現学習を正規化し,特徴をセグメンテーションにシームレスに変換するために,3次元構造インフォームドクラスタリング手法を用いる。
複数の実世界のデータセットで評価された結果として生じるプライバシと非プライバシ保存のローカライゼーションパイプラインは、最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-07-31T13:58:15Z) - GaussianVLM: Scene-centric 3D Vision-Language Models using Language-aligned Gaussian Splats for Embodied Reasoning and Beyond [56.677984098204696]
マルチモーダル言語モデルは、VLM(3D Vision-Language Models)の開発を推進している
本稿では,言語とタスク認識のシーン表現を用いた3次元ガウシアンスプラットシーンのためのシーン中心の3次元VLMを提案する。
本稿では,標準RGB画像から導出した光リアルな3D表現を利用した最初のガウススプラッティングに基づくVLMを提案する。
論文 参考訳(メタデータ) (2025-07-01T15:52:59Z) - SceneSplat++: A Large Dataset and Comprehensive Benchmark for Language Gaussian Splatting [104.83629308412958]
3D Gaussian Splatting (3DGS) は、シーン幾何学、外観、意味論の高性能かつ効率的な符号化として機能する。
3次元空間で直接3つの手法群を体系的に評価する,最初の大規模ベンチマークを提案する。
結果は、特にシーン固有の制限を緩和する上で、一般化可能なパラダイムの明確な利点を示している。
論文 参考訳(メタデータ) (2025-06-10T11:52:45Z) - LoGS: Visual Localization via Gaussian Splatting with Fewer Training Images [7.363332481155945]
本稿では,3D Splatting (GS) 技術をシーン表現として活用した視覚に基づくローカライゼーションパイプラインを提案する。
マッピングフェーズでは、まずStructure-from-motion(SfM)を適用し、続いてGSマップを生成する。
高精度なポーズは、地図上で解析的に達成される。
論文 参考訳(メタデータ) (2024-10-15T11:17:18Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SceneGraphFusion: Incremental 3D Scene Graph Prediction from RGB-D
Sequences [76.28527350263012]
rgb-dフレームのシーケンスを与えられた3次元環境から意味的シーングラフを漸進的に構築する手法を提案する。
我々は、グラフニューラルネットワークを用いて、プリミティブシーンコンポーネントからpointnet機能を集約する。
提案手法は,35hzで動作する他の3dセマンティクスおよびパンオプティカルセグメンテーション法と同等の精度で,高いマージンで3dシーングラフ予測手法を上回る。
論文 参考訳(メタデータ) (2021-03-27T13:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。