論文の概要: Visible Structure Retrieval for Lightweight Image-Based Relocalisation
- arxiv url: http://arxiv.org/abs/2511.12503v1
- Date: Sun, 16 Nov 2025 08:32:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.28442
- Title: Visible Structure Retrieval for Lightweight Image-Based Relocalisation
- Title(参考訳): 軽量画像に基づく再局在のための可視構造検索
- Authors: Fereidoon Zangeneh, Leonard Bruns, Amit Dekel, Alessandro Pieropan, Patric Jensfelt,
- Abstract要約: 構造に基づく再ローカライゼーションを実現するための新しいパラダイムを提案する。
画像観察からコンパクトニューラルネットワークの可視的シーン構造への直接マッピングを学習する。
クエリー画像が与えられた場合、新しい可視構造検索ネットワークを前方通過することで、画像が見るマップ内の3次元構造点のサブセットを可能にする。
- 参考スコア(独自算出の注目度): 41.33166541705719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate camera pose estimation from an image observation in a previously mapped environment is commonly done through structure-based methods: by finding correspondences between 2D keypoints on the image and 3D structure points in the map. In order to make this correspondence search tractable in large scenes, existing pipelines either rely on search heuristics, or perform image retrieval to reduce the search space by comparing the current image to a database of past observations. However, these approaches result in elaborate pipelines or storage requirements that grow with the number of past observations. In this work, we propose a new paradigm for making structure-based relocalisation tractable. Instead of relying on image retrieval or search heuristics, we learn a direct mapping from image observations to the visible scene structure in a compact neural network. Given a query image, a forward pass through our novel visible structure retrieval network allows obtaining the subset of 3D structure points in the map that the image views, thus reducing the search space of 2D-3D correspondences. We show that our proposed method enables performing localisation with an accuracy comparable to the state of the art, while requiring lower computational and storage footprint.
- Abstract(参考訳): 画像上の2次元キーポイントとマップ内の3次元構造点との対応関係を見つけることによって、予めマッピングされた環境における画像観察から正確なカメラポーズ推定を行う。
この対応探索を大きな場面で行えるようにするために、既存のパイプラインは探索ヒューリスティックスに依存するか、あるいは過去の観測データベースと比較して検索空間を縮小する画像検索を行う。
しかし、これらのアプローチは過去の観測回数で増加する精巧なパイプラインやストレージ要件をもたらす。
本研究では,構造に基づく再ローカライゼーションを実現するための新しいパラダイムを提案する。
画像検索や探索ヒューリスティックスに頼る代わりに、画像観察からコンパクトニューラルネットワークの視覚的シーン構造への直接マッピングを学習する。
クエリ画像が与えられた場合、新しい可視構造検索ネットワークを経由した前方通過により、画像が見るマップ内の3次元構造点のサブセットを取得でき、2D-3D対応の検索スペースを削減できる。
提案手法は,より少ない計算量とストレージフットプリントを必要としながら,最先端技術に匹敵する精度でローカライズを実現できることを示す。
関連論文リスト
- NOVA3R: Non-pixel-aligned Visual Transformer for Amodal 3D Reconstruction [99.52487968452198]
NOVA3Rは、フィードフォワード方式で、未提示画像の集合から非画素アラインな3D再構成に有効なアプローチである。
重なり合う領域における重複構造の少ない物理的に可算な幾何学を生成する。
復元精度と完全性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2026-03-04T15:36:25Z) - SAB3R: Semantic-Augmented Backbone in 3D Reconstruction [19.236494823612507]
オープン語彙セグメンテーションと3次元再構成の目的を統一する新しいタスクであるMap and Locateを導入する。
具体的には、MapとLocateは、未提示のビデオからポイントクラウドを生成し、オープン語彙クエリに基づいてオブジェクトインスタンスをセグメント化する。
このタスクは、現実世界のAIアプリケーションへの重要なステップとして機能し、再構築、認識、再編成を橋渡しする実践的なタスクを導入します。
論文 参考訳(メタデータ) (2025-06-02T18:00:04Z) - Improved Scene Landmark Detection for Camera Localization [11.56648898250606]
シーンランドマーク検出(SLD)に基づく手法が近年提案されている。
畳み込みニューラルネットワーク(CNN)をトレーニングして、所定の、健全でシーン固有の3Dポイントやランドマークを検出する。
トレーニング中はモデル容量とノイズラベルが不足していたため,精度の差がみられた。
論文 参考訳(メタデータ) (2024-01-31T18:59:12Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - NAVI: Category-Agnostic Image Collections with High-Quality 3D Shape and
Pose Annotations [64.95582364215548]
NAVIは、高品質な3Dスキャンと画像ごとの2D-3Dアライメントを備えたカテゴリに依存しない画像コレクションの新しいデータセットである。
これらの2D-3Dアライメントにより,高密度画素対応,深度,セグメンテーションマップなどの正確な微分アノテーションを抽出できる。
論文 参考訳(メタデータ) (2023-06-15T13:11:30Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Predicting Visual Overlap of Images Through Interpretable Non-Metric Box
Embeddings [29.412748394892105]
本稿では,大規模空間における探索を本質的に検索に削減する,解釈可能な画像埋め込みを提案する。
この埋め込みによって、よりシンプルで、高速で、人間によって解釈可能な画像マッチング結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-13T10:01:07Z) - Object Detection on Single Monocular Images through Canonical
Correlation Analysis [3.4722706398428493]
点雲や深度画像のような余分な3次元データを用いることなく、単分子画像から3次元オブジェクト情報を検索する。
本稿では,単眼画像とそれに対応する深度画像とを融合する2次元CCAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-13T05:03:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。