論文の概要: Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image
- arxiv url: http://arxiv.org/abs/2204.04752v1
- Date: Sun, 10 Apr 2022 19:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:27:05.133574
- Title: Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image
- Title(参考訳): クロスビュー画像検索を超えて:衛星画像を用いた高精度車両位置推定
- Authors: Yujiao Shi and Hongdong Li
- Abstract要約: 本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
- 参考スコア(独自算出の注目度): 91.29546868637911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of vehicle-mounted camera localization by
matching a ground-level image with an overhead-view satellite map. Existing
methods often treat this problem as cross-view image retrieval, and use learned
deep features to match the ground-level query image to a partition (eg, a small
patch) of the satellite map. By these methods, the localization accuracy is
limited by the partitioning density of the satellite map (often in the order of
tens meters). Departing from the conventional wisdom of image retrieval, this
paper presents a novel solution that can achieve highly-accurate localization.
The key idea is to formulate the task as pose estimation and solve it by
neural-net based optimization. Specifically, we design a two-branch {CNN} to
extract robust features from the ground and satellite images, respectively. To
bridge the vast cross-view domain gap, we resort to a Geometry Projection
module that projects features from the satellite map to the ground-view, based
on a relative camera pose. Aiming to minimize the differences between the
projected features and the observed features, we employ a differentiable
Levenberg-Marquardt ({LM}) module to search for the optimal camera pose
iteratively. The entire pipeline is differentiable and runs end-to-end.
Extensive experiments on standard autonomous vehicle localization datasets have
confirmed the superiority of the proposed method. Notably, e.g., starting from
a coarse estimate of camera location within a wide region of 40m x 40m, with an
80% likelihood our method quickly reduces the lateral location error to be
within 5m on a new KITTI cross-view dataset.
- Abstract(参考訳): 本稿では,地上画像と架空衛星地図をマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
既存の手法では、この問題をクロスビュー画像検索として扱うことが多く、学習した深い特徴を用いて地上レベルのクエリ画像を衛星マップのパーティション(例えば小さなパッチ)にマッチさせる。
これらの方法により、衛星地図の分割密度(しばしば10メートル順)によって位置推定精度が制限される。
本稿では,従来の画像検索の知恵を離れて,高精度な局所化を実現する新しい解を提案する。
重要なアイデアは、タスクをポーズ推定として定式化し、ニューラルネットワークベースの最適化によって解決することです。
具体的には、地上画像と衛星画像から頑健な特徴を抽出する2枝のCNNを設計する。
広大なクロスビュー領域のギャップを埋めるために、相対的なカメラポーズに基づいて、衛星マップからグランドビューに特徴を投影する幾何投影モジュールを使用します。
投影された特徴と観測された特徴の差を最小限に抑えるため、最適なカメラのポーズを反復的に検索するために微分可能なレバンス・マルカート({LM})モジュールを用いる。
パイプライン全体が微分可能で、エンドツーエンドで動作する。
標準自動運転車のローカライズデータセットに関する広範囲な実験により,提案手法の優位性が確認された。
例えば、40m×40mの広い領域におけるカメラ位置の粗い推定から始めると、その80%の確率で、新しいKITTIクロスビューデータセットにおいて、横方向の位置誤差が5m以内になる。
関連論文リスト
- Weakly-supervised Camera Localization by Ground-to-satellite Image Registration [52.54992898069471]
本稿では,地対衛星画像登録のための弱教師付き学習戦略を提案する。
地上画像ごとに正の衛星画像と負の衛星画像を導き出す。
また,クロスビュー画像の相対回転推定のための自己超越戦略を提案する。
論文 参考訳(メタデータ) (2024-09-10T12:57:16Z) - Learning Dense Flow Field for Highly-accurate Cross-view Camera
Localization [15.89357790711828]
本稿では,衛星画像に対する地上画像に対する3DFカメラのポーズ推定の問題に対処する。
地上画像と衛星画像のペアにおいて,高密度な画素単位の流れ場を学習する手法を提案する。
提案手法は,KITTI,Ford multi-AV,VIGOR,Oxford RobotCarデータセットにおいて,中央値のローカライゼーション誤差を89%,19%,80%,35%削減する。
論文 参考訳(メタデータ) (2023-09-27T10:26:26Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - City-wide Street-to-Satellite Image Geolocalization of a Mobile Ground
Agent [38.140216125792755]
クロスビュー画像のジオローカライゼーションは、GPSを必要とせずに、局地画像とオーバーヘッド衛星画像とをマッチングすることにより、エージェントのグローバルな位置を推定する。
我々のアプローチはワイド・エリア・ジオローカライゼーション (WAG) と呼ばれ、ニューラルネットワークと粒子フィルタを組み合わせることで、GPSを付加した環境で移動するエージェントのグローバルな位置推定を実現している。
WAGは、20mの順序で位置推定精度を達成し、ベースライントレーニングと重み付けのアプローチと比較して98%の削減を実現した。
論文 参考訳(メタデータ) (2022-03-10T19:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。