論文の概要: Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching
- arxiv url: http://arxiv.org/abs/2005.03860v1
- Date: Fri, 8 May 2020 05:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:43:20.787448
- Title: Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching
- Title(参考訳): どこを見てるんだ?
クロスビューマッチングによる共同位置と方位推定
- Authors: Yujiao Shi, Xin Yu, Dylan Campbell, Hongdong Li
- Abstract要約: ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
- 参考スコア(独自算出の注目度): 95.64702426906466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-view geo-localization is the problem of estimating the position and
orientation (latitude, longitude and azimuth angle) of a camera at ground level
given a large-scale database of geo-tagged aerial (e.g., satellite) images.
Existing approaches treat the task as a pure location estimation problem by
learning discriminative feature descriptors, but neglect orientation alignment.
It is well-recognized that knowing the orientation between ground and aerial
images can significantly reduce matching ambiguity between these two views,
especially when the ground-level images have a limited Field of View (FoV)
instead of a full field-of-view panorama. Therefore, we design a Dynamic
Similarity Matching network to estimate cross-view orientation alignment during
localization. In particular, we address the cross-view domain gap by applying a
polar transform to the aerial images to approximately align the images up to an
unknown azimuth angle. Then, a two-stream convolutional network is used to
learn deep features from the ground and polar-transformed aerial images.
Finally, we obtain the orientation by computing the correlation between
cross-view features, which also provides a more accurate measure of feature
similarity, improving location recall. Experiments on standard datasets
demonstrate that our method significantly improves state-of-the-art
performance. Remarkably, we improve the top-1 location recall rate on the CVUSA
dataset by a factor of 1.5x for panoramas with known orientation, by a factor
of 3.3x for panoramas with unknown orientation, and by a factor of 6x for
180-degree FoV images with unknown orientation.
- Abstract(参考訳): クロスビュージオローカライズ(cross-view geo-localization)とは、衛星画像(例えば、衛星画像)の大規模データベースから、地上におけるカメラの位置と方位(緯度、経度、方位角)を推定する問題である。
既存のアプローチでは、識別的特徴記述子を学習することでタスクを純粋な位置推定問題として扱うが、指向性は無視する。
特に、地上画像がフル視野パノラマではなく視野(FoV)に制限されている場合、地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく低減できる。
そこで本稿では,局所化時の横方向アライメントを推定する動的類似マッチングネットワークを設計する。
特に、空撮画像に偏極変換を適用して、画像が未知の方位角にほぼ整列することで、クロスビュー領域のギャップに対処する。
次に、二流畳み込みネットワークを用いて、地上および極変換された空中画像から深い特徴を学習する。
最後に,クロスビュー機能間の相関を計算し,特徴の類似度をより正確に測定し,位置リコールを改善した。
標準データセットの実験により,本手法は最先端の性能を著しく向上することが示された。
cvusaデータセットのtop-1位置のリコールレートを、既知の向きのパノラマの1.5倍、未知方向のパノラマの3.3倍、未知方向の180度のfov画像の6倍で改善した。
関連論文リスト
- Fine-Grained Cross-View Geo-Localization Using a Correlation-Aware
Homography Estimator [12.415973198004169]
そこで我々は, 微粒なクロスビューなジオローカライゼーションの新たなアプローチを提案する。
提案手法は,同じ領域をカバーするGPSタグ付き衛星画像と,歪んだ地上画像とを一致させる。
提案手法は30FPSの速度で動作し,最先端技術より優れる。
論文 参考訳(メタデータ) (2023-08-31T17:59:24Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Beyond Geo-localization: Fine-grained Orientation of Street-view Images
by Cross-view Matching with Satellite Imagery with Supplementary Materials [29.015865103837413]
クラウドソースされた膨大なストリートビュー画像がインターネットにアップロードされる。
この「使い捨て」状態の隠された宝物を作成するためには、位置情報とカメラ向きの角度が等しく重要な2つのタスクである。
近年, 衛星画像のプールとのクロスビューマッチングにより, ストリートビュー画像のジオローカライズに高い性能を実現している。
本研究では,ストリートビュー画像の微粒な配向を見つけることの重要性を再定義し,問題を正式に定義し,配向推定の品質を評価するための評価指標のセットを提供する。
論文 参考訳(メタデータ) (2023-07-07T05:50:14Z) - Cross-View Visual Geo-Localization for Outdoor Augmented Reality [11.214903134756888]
地上画像のクロスビューマッチングによる測地位置推定の課題をジオレファレンス衛星画像データベースに解決する。
本稿では,新しいトランスフォーマーニューラルネットワークモデルを提案する。
いくつかのベンチマーク・クロスビュー・ジオローカライズ・データセットの実験により、我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-03-28T01:58:03Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - Multi-view Drone-based Geo-localization via Style and Spatial Alignment [47.95626612936813]
マルチビュー・マルチソース・ジオローカライゼーションは、ドローンビュー画像と衛星ビュー画像とを事前アノテーション付きGPSタグとマッチングすることにより、GPS位置決めの重要な補助的手法として機能する。
パターンを整列させるエレガントな配向に基づく手法を提案し、整列部分特徴を抽出する新しい分岐を導入する。
論文 参考訳(メタデータ) (2020-06-23T15:44:02Z) - Revisiting Street-to-Aerial View Image Geo-localization and Orientation
Estimation [19.239311087570318]
単純なシームズネットワークの性能はアライメント設定に大きく依存していることを示す。
本稿では,一対のクロスビュー画像と未知のアライメント情報との配向/配向を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-23T19:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。