論文の概要: BEV-CV: Birds-Eye-View Transform for Cross-View Geo-Localisation
- arxiv url: http://arxiv.org/abs/2312.15363v1
- Date: Sat, 23 Dec 2023 22:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:29:28.622864
- Title: BEV-CV: Birds-Eye-View Transform for Cross-View Geo-Localisation
- Title(参考訳): BEV-CV: クロスビュージオローカライゼーションのためのバードアイビュー変換
- Authors: Tavis Shore, Simon Hadfield, Oscar Mendez
- Abstract要約: 地理的局所化のためのクロスビュー画像マッチングは、空中と地上の視点の視覚的違いが著しく異なるため、難しい問題である。
BEV-CVは2つの重要な新規性を導入するアプローチである。
我々は,標準三重項損失よりも高速な収束を実現するため,正規化温度スケールクロスエントロピー損失をサブフィールドに導入する。
- 参考スコア(独自算出の注目度): 17.223341593229716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-view image matching for geo-localisation is a challenging problem due
to the significant visual difference between aerial and ground-level
viewpoints. The method provides localisation capabilities from geo-referenced
images, eliminating the need for external devices or costly equipment. This
enhances the capacity of agents to autonomously determine their position,
navigate, and operate effectively in environments where GPS signals are
unavailable. Current research employs a variety of techniques to reduce the
domain gap such as applying polar transforms to aerial images or synthesising
between perspectives. However, these approaches generally rely on having a
360{\deg} field of view, limiting real-world feasibility. We propose BEV-CV, an
approach which introduces two key novelties. Firstly we bring ground-level
images into a semantic Birds-Eye-View before matching embeddings, allowing for
direct comparison with aerial segmentation representations. Secondly, we
introduce the use of a Normalised Temperature-scaled Cross Entropy Loss to the
sub-field, achieving faster convergence than with the standard triplet loss.
BEV-CV achieves state-of-the-art recall accuracies, improving feature
extraction Top-1 rates by more than 300%, and Top-1% rates by approximately
150% for 70{\deg} crops, and for orientation-aware application we achieve a 35%
Top-1 accuracy increase with 70{\deg} crops.
- Abstract(参考訳): 地理的局所化のためのクロスビュー画像マッチングは、空中と地上の視点の視覚的違いが著しく異なるため、難しい問題である。
この方法は、地理的参照画像からのローカライズ機能を提供し、外部装置やコストのかかる機器の必要性をなくす。
これにより、GPS信号が利用できない環境で、エージェントの位置を自律的に決定し、ナビゲートし、効果的に運用することができる。
現在の研究は、航空画像に極性変換を適用することや視点間の合成など、ドメインギャップを減らすために様々な技術を使用している。
しかし、これらのアプローチは一般的に360{\deg}視野に頼り、現実の実現可能性を制限する。
BEV-CVは2つの重要な新規性を導入するアプローチである。
まず、埋め込みをマッチングする前に、地上の画像をセマンティックな鳥眼視点に持ち込み、空中のセグメンテーション表現と直接比較する。
次に,正規化温度スケールクロスエントロピー損失をサブフィールドに導入し,標準三重項損失よりも高速な収束を実現する。
bev-cvは最先端のリコール能力を達成し、フィーチャー抽出トップ1率を300%以上向上させ、トップ1%を70{\deg}作物で約150%向上させ、配向認識アプリケーションでは70{\deg}作物で35%のtop-1精度向上を達成している。
関連論文リスト
- C-BEV: Contrastive Bird's Eye View Training for Cross-View Image
Retrieval and 3-DoF Pose Estimation [27.870926763424848]
本稿では,ベクトルを埋め込み表現としてではなく,鳥眼ビュー(BEV)マップを用いた新しい学習可能な検索アーキテクチャを提案する。
我々のC-BEV法は,複数のデータセットの検索タスクにおける最先端のタスクを大きなマージンで超えている。
論文 参考訳(メタデータ) (2023-12-13T11:14:57Z) - Fine-Grained Cross-View Geo-Localization Using a Correlation-Aware
Homography Estimator [12.415973198004169]
そこで我々は, 微粒なクロスビューなジオローカライゼーションの新たなアプローチを提案する。
提案手法は,同じ領域をカバーするGPSタグ付き衛星画像と,歪んだ地上画像とを一致させる。
提案手法は30FPSの速度で動作し,最先端技術より優れる。
論文 参考訳(メタデータ) (2023-08-31T17:59:24Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Uncertainty-aware Vision-based Metric Cross-view Geolocalization [25.87104194833264]
地上画像と空中画像を用いて車両のポーズの確率分布を予測するエンド・ツー・エンドの微分モデルを提案する。
テストエリアからの地上データや空中データなしでも、最先端の技術を大きなマージンで改善する。
論文 参考訳(メタデータ) (2022-11-22T10:23:20Z) - Wide-Area Geolocalization with a Limited Field of View Camera [33.34809839268686]
GPSの補足または置換であるクロスビュージオローカライゼーションは、地上カメラから撮影した画像と衛星や航空機から撮影した画像とをマッチングすることにより、検索エリア内のエージェントをローカライズする。
ReWAGは、オドメトリーと90度のFOVカメラだけで、GPSを付加した環境で、移動体エージェントをグローバルにローカライズできるニューラルネットワークとパーティクルフィルタシステムである。
論文 参考訳(メタデータ) (2022-09-23T20:59:26Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Where in the World is this Image? Transformer-based Geo-localization in
the Wild [48.69031054573838]
世界各地で撮影された地上レベルのRGB画像から地理的位置(ジオローカライゼーション)を予測することは、非常に難しい問題です。
画像全体の細部を網羅する統合型デュアルブランチトランスネットワークであるTransLocatorを提案する。
我々は、Im2GPS、Im2GPS3k、YFCC4k、YFCC26kの4つのベンチマークデータセットでTransLocatorを評価し、5.5%、14.1%、4.9%、9.9%の大陸レベルの精度改善を得た。
論文 参考訳(メタデータ) (2022-04-29T03:27:23Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Co-visual pattern augmented generative transformer learning for
automobile geo-localization [12.449657263683337]
クロスビュージオローカライゼーション(CVGL)は、地上カメラの地理的位置を、巨大なジオタグ付き空中画像とマッチングすることによって推定することを目的としている。
CVGLのための相互生成型トランスフォーマー学習(MGTL)という,トランスフォーマーと組み合わせたクロスビュー知識生成技術を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T07:29:02Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。