論文の概要: Is Geometry Enough for Matching in Visual Localization?
- arxiv url: http://arxiv.org/abs/2203.12979v1
- Date: Thu, 24 Mar 2022 10:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:34:20.148882
- Title: Is Geometry Enough for Matching in Visual Localization?
- Title(参考訳): ジオメトリは視覚的ローカライゼーションのマッチングに十分か?
- Authors: Qunjie Zhou, Sergio Agostinho, Aljosa Osep, Laura Leal-Taixe
- Abstract要約: GoMatchは、画像キーポイントとマップをマッチングするための幾何学的情報に依存し、軸受ベクトルの集合として表される、視覚ベースのマッチングの代替手段である。
GoMatchは、以前の幾何学ベースのマッチング作業を改善し、ケンブリッジ・ランドマークと7シーンの平均中央値の誤差を10.67m, 95.7circ$)と1.43m$, 3,4.7circ$)に減らした。
- 参考スコア(独自算出の注目度): 12.984256838490795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose to go beyond the well-established approach to
vision-based localization that relies on visual descriptor matching between a
query image and a 3D point cloud. While matching keypoints via visual
descriptors makes localization highly accurate, it has significant storage
demands, raises privacy concerns and increases map maintenance complexity. To
elegantly address those practical challenges for large-scale localization, we
present GoMatch, an alternative to visual-based matching that solely relies on
geometric information for matching image keypoints to maps, represented as sets
of bearing vectors. Our novel bearing vectors representation of 3D points,
significantly relieves the cross-domain challenge in geometric-based matching
that prevented prior work to tackle localization in a realistic environment.
With additional careful architecture design, GoMatch improves over prior
geometric-based matching work with a reduction of ($10.67m, 95.7^{\circ}$) and
($1.43m$, $34.7^{\circ}$) in average median pose errors on Cambridge Landmarks
and 7-Scenes, while requiring as little as $1.5/1.7\%$ of storage capacity in
comparison to the best visual-based matching methods. This confirms its
potential and feasibility for real-world localization and opens the door to
future efforts in advancing city-scale visual localization methods that do not
require storing visual descriptors.
- Abstract(参考訳): 本稿では,問合せ画像と3dポイントクラウド間の視覚ディスクリプタマッチングに依存する,視覚ベースのローカライゼーションに対する確立したアプローチを超越することを提案する。
ビジュアルディスクリプタによるキーポイントのマッチングは、ローカライゼーションを極めて正確にするが、ストレージの要求が大きくなり、プライバシの懸念が高まり、マップメンテナンスの複雑さが増す。
画像のキーポイントを地図にマッチングするための幾何学的情報のみに依存する視覚ベースのマッチングの代替として,軸受ベクトルの集合として表現されるgomatchを提案する。
提案する軸受ベクトルによる3d点表現は,実環境における局所化への先行作業の妨げとなる幾何学的マッチングにおける領域横断的課題を著しく軽減する。
さらなる注意深いアーキテクチャ設計により、gomatchは以前の幾何学ベースのマッチング作業よりも改善され、ケンブリッジのランドマークと7つのシーンにおける平均的な中央値のポーズエラー(英語版)で10.67m$, 95.7^{\circ}$)と (1.43m$, $334.7^{\circ}$) を削減した。
このことは、実世界のローカライゼーションの可能性と実現可能性を確認し、視覚ディスクリプタを格納する必要のない都市規模の視覚的ローカライゼーション手法の進展への扉を開く。
関連論文リスト
- SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality [50.179377002092416]
より少ないパラメータで高品質なレンダリングが可能な効率的なビジュアルローカライズ手法を提案する。
提案手法は,最先端の暗黙的視覚的ローカライゼーションアプローチに対して,より優れた,あるいは同等なレンダリングとローカライゼーション性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T08:46:16Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - Learning to Produce Semi-dense Correspondences for Visual Localization [11.415451542216559]
本研究は,夜間シナリオ,悪天候,季節変化などの要求条件下で視覚的局所化を行うことの課題に対処する。
本稿では,高密度なキーポイントマッチングに基づいて,信頼性の高い半高密度2D-3Dマッチングポイントを抽出する手法を提案する。
ネットワークは幾何学的および視覚的な手がかりを用いて、観測されたキーポイントから観測されていないキーポイントの3D座標を効果的に推測する。
論文 参考訳(メタデータ) (2024-02-13T10:40:10Z) - Yes, we CANN: Constrained Approximate Nearest Neighbors for local
feature-based visual localization [2.915868985330569]
Constrained Approximate Nearest Neighbors (CANN) は、局所的特徴のみを用いて、幾何学と外観空間の両方にわたって k-アネレスト近傍の合同解である。
提案手法は,現在最先端のグローバルな特徴量検索と,局所的な特徴量集計手法を用いたアプローチの両方に優れる。
論文 参考訳(メタデータ) (2023-06-15T10:12:10Z) - Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - MeshLoc: Mesh-Based Visual Localization [54.731309449883284]
シーン表現を構築するために,データベースイメージ間のマッチング機能を必要としない,高密度な3Dメッシュに基づく,より柔軟な代替手段を模索する。
驚くべきことに、ニューラルネットワークのレンダリングステージなしで、これらのメッシュのレンダリングの特徴を抽出するときに、競合的な結果が得られる。
以上の結果から,高密度な3次元モデルに基づく表現は,既存の表現の代替として有望なものであり,今後の研究にとって興味深い,挑戦的な方向性を示すものと考えられる。
論文 参考訳(メタデータ) (2022-07-21T21:21:10Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - i3dLoc: Image-to-range Cross-domain Localization Robust to Inconsistent
Environmental Conditions [9.982307144353713]
本研究では,屋内および屋外の場面における点雲マップに対して,単一カメラのローカライズ方法を提案する。
本手法は,領域間対称な位置記述子を抽出することにより,等角形状の画像を3次元射影にマッチングすることができる。
単一のトレーニングモデルにより、i3dLocはランダムな条件下で、信頼できる視覚的ローカライゼーションを示すことができる。
論文 参考訳(メタデータ) (2021-05-27T00:13:11Z) - VS-Net: Voting with Segmentation for Visual Localization [72.8165619061249]
本稿では,クエリ画像と3Dマップ間の2次元から3次元の対応を学習可能なシーン固有のランドマークで構築する,新しい視覚的ローカライゼーションフレームワークを提案する。
提案したVS-Netは、複数の公開ベンチマークで広範囲にテストされており、最先端のビジュアルローカライゼーション手法より優れている。
論文 参考訳(メタデータ) (2021-05-23T08:44:11Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。