論文の概要: Map-free Visual Relocalization: Metric Pose Relative to a Single Image
- arxiv url: http://arxiv.org/abs/2210.05494v1
- Date: Tue, 11 Oct 2022 14:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:31:49.239150
- Title: Map-free Visual Relocalization: Metric Pose Relative to a Single Image
- Title(参考訳): 地図のない視覚的再ローカライズ:単一の画像に対するメトリックポーズ
- Authors: Eduardo Arnold, Jamie Wynn, Sara Vicente, Guillermo Garcia-Hernando,
\'Aron Monszpart, Victor Adrian Prisacariu, Daniyar Turmukhambetov, Eric
Brachmann
- Abstract要約: 本研究では,シーンの1枚の写真のみを用いて,地図のない再ローカライズを提案し,即時でスケールした再ローカライズを実現する。
既存のデータセットは、大きなシーンや限られた変数に焦点を当てているため、マップのない再ローカライゼーションのベンチマークには適していない。
我々は,世界規模で収集された彫刻,壁画,噴水など,655箇所の小さな関心事のデータセットを構築した。
- 参考スコア(独自算出の注目度): 21.28513803531557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Can we relocalize in a scene represented by a single reference image?
Standard visual relocalization requires hundreds of images and scale
calibration to build a scene-specific 3D map. In contrast, we propose Map-free
Relocalization, i.e., using only one photo of a scene to enable instant, metric
scaled relocalization. Existing datasets are not suitable to benchmark map-free
relocalization, due to their focus on large scenes or their limited
variability. Thus, we have constructed a new dataset of 655 small places of
interest, such as sculptures, murals and fountains, collected worldwide. Each
place comes with a reference image to serve as a relocalization anchor, and
dozens of query images with known, metric camera poses. The dataset features
changing conditions, stark viewpoint changes, high variability across places,
and queries with low to no visual overlap with the reference image. We identify
two viable families of existing methods to provide baseline results: relative
pose regression, and feature matching combined with single-image depth
prediction. While these methods show reasonable performance on some favorable
scenes in our dataset, map-free relocalization proves to be a challenge that
requires new, innovative solutions.
- Abstract(参考訳): 単一の参照画像で表現されたシーンで再ローカライズできますか?
標準的な視覚的再ローカライズには、シーン固有の3Dマップを構築するために数百の画像とスケールキャリブレーションが必要である。
対照的に,マップフリーな再ローカライズ,すなわち,シーンの1枚の写真のみを使用して,瞬時にスケールした再ローカライズを実現することを提案する。
既存のデータセットは、大きなシーンや限られた変数に焦点を当てているため、マップのない再ローカライゼーションのベンチマークには適していない。
そこで我々は,世界規模で収集された彫刻,壁画,噴水など,655箇所の新しいデータセットを構築した。
各場所には、再ローカライズアンカーとして機能する参照イメージと、既知のメトリックカメラポーズを持つ数十のクエリイメージが付属している。
データセットには、条件の変更、スターク視点の変更、場所間の高いばらつき、参照イメージと視覚的に重複しないクエリなどが特徴である。
提案手法は,相対的ポーズ回帰と特徴マッチングと単一画像深度予測の2つの既存手法のファミリを同定する。
これらの手法は、データセット内の好ましいシーンで合理的なパフォーマンスを示していますが、map-freeの再ローカライズは、新しい革新的なソリューションを必要とする課題であることが証明されます。
関連論文リスト
- Breaking the Frame: Image Retrieval by Visual Overlap Prediction [53.17564423756082]
本稿では,隠蔽や複雑なシーンを効果的に扱う新しい視覚的位置認識手法,VOPを提案する。
提案手法は,高コストな特徴検出とマッチングを必要とせず,可視画像区間の識別を可能にする。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - LoCUS: Learning Multiscale 3D-consistent Features from Posed Images [18.648772607057175]
我々は、監督なしに多目的な神経表現を訓練する。
検索セットを慎重に構築することで、検索と再利用のバランスをとることができる。
スパース,マルチスケール,セマンティック空間マップの作成結果を示す。
論文 参考訳(メタデータ) (2023-10-02T11:11:23Z) - SACReg: Scene-Agnostic Coordinate Regression for Visual Localization [16.866303169903237]
本稿では,新しいテストシーンで1回トレーニングされた一般化SCRモデルを提案する。
我々のモデルは、シーン座標をネットワーク重みに符号化する代わりに、スパース2Dピクセルのデータベースイメージを3D座標アノテーションに入力する。
画像のデータベース表現とその2D-3Dアノテーションは,局所化性能を損なうことなく,高度に圧縮できることを示す。
論文 参考訳(メタデータ) (2023-07-21T16:56:36Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - Investigating the Role of Image Retrieval for Visual Localization -- An
exhaustive benchmark [46.166955777187816]
本稿では,複数の視覚的ローカライゼーションパラダイムにおける画像検索の役割を理解することに焦点を当てる。
本稿では、新しいベンチマーク設定を導入し、複数のデータセットにおける最先端の検索表現を比較した。
これらのツールと奥行き分析を用いて、古典的ランドマーク検索や位置認識タスクにおける検索性能は、ローカライズ性能に限らず、すべてのパラダイムで相関していることを示す。
論文 参考訳(メタデータ) (2022-05-31T12:59:01Z) - VS-Net: Voting with Segmentation for Visual Localization [72.8165619061249]
本稿では,クエリ画像と3Dマップ間の2次元から3次元の対応を学習可能なシーン固有のランドマークで構築する,新しい視覚的ローカライゼーションフレームワークを提案する。
提案したVS-Netは、複数の公開ベンチマークで広範囲にテストされており、最先端のビジュアルローカライゼーション手法より優れている。
論文 参考訳(メタデータ) (2021-05-23T08:44:11Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - VIGOR: Cross-View Image Geo-localization beyond One-to-one Retrieval [19.239311087570318]
クロスビュー画像のジオローカライゼーションは,空中からのGPSタグ付き参照画像とマッチングすることで,ストリートビュー検索画像の位置を決定することを目的としている。
最近の研究は、都市規模データセットの驚くほど高い検索精度を実現している。
我々は,1対1の検索範囲を超えて,画像の地理的局所化を行うための大規模ベンチマークであるVIGORを提案する。
論文 参考訳(メタデータ) (2020-11-24T15:50:54Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。