論文の概要: Visual Cross-View Metric Localization with Dense Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2208.08519v1
- Date: Wed, 17 Aug 2022 20:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:33:54.669177
- Title: Visual Cross-View Metric Localization with Dense Uncertainty Estimates
- Title(参考訳): ディエンス不確かさ推定を用いた視覚的クロスビュー距離定位
- Authors: Zimin Xia, Olaf Booij, Marco Manfredi, Julian F. P. Kooij
- Abstract要約: 本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
- 参考スコア(独自算出の注目度): 11.76638109321532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses visual cross-view metric localization for outdoor
robotics. Given a ground-level color image and a satellite patch that contains
the local surroundings, the task is to identify the location of the ground
camera within the satellite patch. Related work addressed this task for
range-sensors (LiDAR, Radar), but for vision, only as a secondary regression
step after an initial cross-view image retrieval step. Since the local
satellite patch could also be retrieved through any rough localization prior
(e.g. from GPS/GNSS, temporal filtering), we drop the image retrieval objective
and focus on the metric localization only. We devise a novel network
architecture with denser satellite descriptors, similarity matching at the
bottleneck (rather than at the output as in image retrieval), and a dense
spatial distribution as output to capture multi-modal localization ambiguities.
We compare against a state-of-the-art regression baseline that uses global
image descriptors. Quantitative and qualitative experimental results on the
recently proposed VIGOR and the Oxford RobotCar datasets validate our design.
The produced probabilities are correlated with localization accuracy, and can
even be used to roughly estimate the ground camera's heading when its
orientation is unknown. Overall, our method reduces the median metric
localization error by 51%, 37%, and 28% compared to the state-of-the-art when
generalizing respectively in the same area, across areas, and across time.
- Abstract(参考訳): 本研究は,屋外ロボットの視覚クロスビューメトリックローカライズについて述べる。
地上レベルのカラー画像と局所環境を含む衛星パッチが与えられた場合、そのタスクは衛星パッチ内の地上カメラの位置を特定することである。
関連した研究は、レンジセンサー(LiDAR、Radar)に対して、最初のクロスビュー画像検索ステップの後、二次回帰ステップとしてのみ、このタスクに対処した。
ローカル・サテライトパッチは、前もって粗いローカライゼーション(GPS/GNSS、時間フィルタリングなど)を通しても検索できるので、画像検索の目的を落とし、メートル法のみに集中する。
我々は,より高密度な衛星記述子を用いた新しいネットワークアーキテクチャを考案し,その類似性は(画像検索のように出力ではなく)ボトルネックに一致し,高密度な空間分布を出力として,マルチモーダルなローカライゼーションの曖昧さを捉える。
我々は,グローバル画像記述子を用いた最先端回帰ベースラインと比較する。
最近提案された vigor と oxford robotcar データセットの定量的・定性的な実験結果が我々の設計を検証した。
生成した確率は測位精度と相関し、方位が不明な場合の地中カメラの方向を大まかに推定することも可能である。
本手法は,各領域,地域,時間にまたがる各領域の一般化において,最先端技術と比較して,中央値の局所化誤差を51%,37%,28%削減する。
関連論文リスト
- Weakly-supervised Camera Localization by Ground-to-satellite Image Registration [52.54992898069471]
本稿では,地対衛星画像登録のための弱教師付き学習戦略を提案する。
地上画像ごとに正の衛星画像と負の衛星画像を導き出す。
また,クロスビュー画像の相対回転推定のための自己超越戦略を提案する。
論文 参考訳(メタデータ) (2024-09-10T12:57:16Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Convolutional Cross-View Pose Estimation [9.599356978682108]
クロスビューポーズ推定のための新しいエンドツーエンド手法を提案する。
提案手法は,VIGORおよびKITTIデータセット上で検証される。
オックスフォード・ロボットカーのデータセットでは,エゴ車両の姿勢を時間とともに確実に推定することができる。
論文 参考訳(メタデータ) (2023-03-09T13:52:28Z) - Uncertainty-aware Vision-based Metric Cross-view Geolocalization [25.87104194833264]
地上画像と空中画像を用いて車両のポーズの確率分布を予測するエンド・ツー・エンドの微分モデルを提案する。
テストエリアからの地上データや空中データなしでも、最先端の技術を大きなマージンで改善する。
論文 参考訳(メタデータ) (2022-11-22T10:23:20Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - City-wide Street-to-Satellite Image Geolocalization of a Mobile Ground
Agent [38.140216125792755]
クロスビュー画像のジオローカライゼーションは、GPSを必要とせずに、局地画像とオーバーヘッド衛星画像とをマッチングすることにより、エージェントのグローバルな位置を推定する。
我々のアプローチはワイド・エリア・ジオローカライゼーション (WAG) と呼ばれ、ニューラルネットワークと粒子フィルタを組み合わせることで、GPSを付加した環境で移動するエージェントのグローバルな位置推定を実現している。
WAGは、20mの順序で位置推定精度を達成し、ベースライントレーニングと重み付けのアプローチと比較して98%の削減を実現した。
論文 参考訳(メタデータ) (2022-03-10T19:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。