論文の概要: LoGS: Visual Localization via Gaussian Splatting with Fewer Training Images
- arxiv url: http://arxiv.org/abs/2410.11505v1
- Date: Tue, 15 Oct 2024 11:17:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:10.097373
- Title: LoGS: Visual Localization via Gaussian Splatting with Fewer Training Images
- Title(参考訳): LoGS: 訓練画像の少ないガウススプラッティングによる視覚的ローカライゼーション
- Authors: Yuzhou Cheng, Jianhao Jiao, Yue Wang, Dimitrios Kanoulas,
- Abstract要約: 本稿では,3D Splatting (GS) 技術をシーン表現として活用した視覚に基づくローカライゼーションパイプラインを提案する。
マッピングフェーズでは、まずStructure-from-motion(SfM)を適用し、続いてGSマップを生成する。
高精度なポーズは、地図上で解析的に達成される。
- 参考スコア(独自算出の注目度): 7.363332481155945
- License:
- Abstract: Visual localization involves estimating a query image's 6-DoF (degrees of freedom) camera pose, which is a fundamental component in various computer vision and robotic tasks. This paper presents LoGS, a vision-based localization pipeline utilizing the 3D Gaussian Splatting (GS) technique as scene representation. This novel representation allows high-quality novel view synthesis. During the mapping phase, structure-from-motion (SfM) is applied first, followed by the generation of a GS map. During localization, the initial position is obtained through image retrieval, local feature matching coupled with a PnP solver, and then a high-precision pose is achieved through the analysis-by-synthesis manner on the GS map. Experimental results on four large-scale datasets demonstrate the proposed approach's SoTA accuracy in estimating camera poses and robustness under challenging few-shot conditions.
- Abstract(参考訳): 視覚的ローカライゼーションでは、クエリイメージの6-DoF(自由度)カメラのポーズを推定する。
本稿では, 3D Gaussian Splatting (GS) 技術をシーン表現として活用した視覚に基づくローカライゼーションパイプライン LoGS を提案する。
この斬新な表現は、高品質な新規なビュー合成を可能にする。
マッピングフェーズでは、まずStructure-from-motion(SfM)を適用し、続いてGSマップを生成する。
ローカライゼーション中、画像検索により初期位置を求め、PnPソルバと組み合わせて局所特徴マッチングを行い、GSマップ上で解析的に高精度なポーズを得る。
4つの大規模データセットの実験結果は、カメラのポーズ推定におけるアプローチのSoTA精度と、挑戦的な数ショット条件下でのロバスト性を示す。
関連論文リスト
- CityLoc: 6DoF Pose Distributional Localization for Text Descriptions in Large-Scale Scenes with Gaussian Representation [99.23408146027462]
本稿では,テキスト記述に基づくカメラポーズの分布生成手法を提案する。
提案手法では,ノイズの多い6DoFカメラを高精細化するために拡散型アーキテクチャを用いる。
5つの大規模データセットの標準分布推定法と比較し,本手法の優位性を検証した。
論文 参考訳(メタデータ) (2025-01-15T17:59:32Z) - EasySplat: View-Adaptive Learning makes 3D Gaussian Splatting Easy [34.27245715540978]
高品質な3DGSモデリングを実現するための新しいフレームワークEasySplatを提案する。
本稿では、ビュー類似性に基づく効率的なグループ化戦略を提案し、高品質な点雲を得るためにロバストな点マップを前もって利用する。
信頼性の高いシーン構造を得た後、近隣のガウス楕円体の平均形状に基づいてガウス原始体を適応的に分割する新しいデンシフィケーション手法を提案する。
論文 参考訳(メタデータ) (2025-01-02T01:56:58Z) - NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
3D Gaussian Splatting (3DGS) は、空間的特徴を持つ3次元幾何学とシーンの外観の両方をコンパクトに符号化することができる。
モデルの空間的理解を改善するために,高密度キーポイント記述子を3DGSに蒸留することを提案する。
提案手法はNeRFMatchやPNeRFLocなど,最先端のニューラル・レンダー・ポース(NRP)法を超越した手法である。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - Visual Localization in 3D Maps: Comparing Point Cloud, Mesh, and NeRF Representations [8.522160106746478]
様々な3次元地図表現にまたがる単一カメラ画像のローカライズが可能なグローバルな視覚的ローカライゼーションシステムを提案する。
本システムは,シーンの新たなビューを合成し,RGBと深度画像のペアを作成することでデータベースを生成する。
NeRF合成画像は、クエリ画像を平均72%の成功率でローカライズし、優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-21T19:37:17Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - 3DGS-ReLoc: 3D Gaussian Splatting for Map Representation and Visual ReLocalization [13.868258945395326]
本稿では,3次元ガウススプラッティングを用いた3次元マッピングと視覚的再局在のための新しいシステムを提案する。
提案手法は、LiDARとカメラデータを用いて、環境の正確な視覚的表現を生成する。
論文 参考訳(メタデータ) (2024-03-17T23:06:12Z) - GS-Pose: Generalizable Segmentation-based 6D Object Pose Estimation with 3D Gaussian Splatting [23.724077890247834]
GS-Poseは、新しいオブジェクトの6Dポーズをローカライズし、推定するためのフレームワークである。
オブジェクトを入力画像に配置し、最初の6Dポーズを推定し、レンダリング・アンド・コンペア法でポーズを精算することで順次動作する。
市販のツールチェーンや携帯電話などのコモディティハードウェアを使用して、データベースに追加される新しいオブジェクトをキャプチャすることができる。
論文 参考訳(メタデータ) (2024-03-15T21:06:14Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。