論文の概要: PetalView: Fine-grained Location and Orientation Extraction of Street-view Images via Cross-view Local Search with Supplementary Materials
- arxiv url: http://arxiv.org/abs/2406.13409v1
- Date: Wed, 19 Jun 2024 09:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 20:12:53.178937
- Title: PetalView: Fine-grained Location and Orientation Extraction of Street-view Images via Cross-view Local Search with Supplementary Materials
- Title(参考訳): PetalView: 補助材料を用いたクロスビュー局所探索によるストリートビュー画像の微粒な位置と方位抽出
- Authors: Wenmiao Hu, Yichen Zhang, Yuxuan Liang, Xianjing Han, Yifang Yin, Hannes Kruppa, See-Kiong Ng, Roger Zimmermann,
- Abstract要約: マルチスケール検索が可能なPetalView抽出器を提案する。
PetalViewの抽出子は、2つの大きな異なるビューで同等のセマンティックな機能を提供します。
先行する角度が与えられると、この情報を利用するための学習可能な事前角度ミキサーを提案する。
- 参考スコア(独自算出の注目度): 40.49931158618459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Satellite-based street-view information extraction by cross-view matching refers to a task that extracts the location and orientation information of a given street-view image query by using one or multiple geo-referenced satellite images. Recent work has initiated a new research direction to find accurate information within a local area covered by one satellite image centered at a location prior (e.g., from GPS). It can be used as a standalone solution or complementary step following a large-scale search with multiple satellite candidates. However, these existing works require an accurate initial orientation (angle) prior (e.g., from IMU) and/or do not efficiently search through all possible poses. To allow efficient search and to give accurate prediction regardless of the existence or the accuracy of the angle prior, we present PetalView extractors with multi-scale search. The PetalView extractors give semantically meaningful features that are equivalent across two drastically different views, and the multi-scale search strategy efficiently inspects the satellite image from coarse to fine granularity to provide sub-meter and sub-degree precision extraction. Moreover, when an angle prior is given, we propose a learnable prior angle mixer to utilize this information. Our method obtains the best performance on the VIGOR dataset and successfully improves the performance on KITTI dataset test 1 set with the recall within 1 meter (r@1m) for location estimation to 68.88% and recall within 1 degree (r@1d) 21.10% when no angle prior is available, and with angle prior achieves stable estimations at r@1m and r@1d above 70% and 21%, up to a 40-degree noise level.
- Abstract(参考訳): クロスビューマッチングによる衛星によるストリートビュー情報抽出は、1つまたは複数のジオレファレンス画像を用いて、所定のストリートビュー画像クエリの位置と方向情報を抽出するタスクを指す。
最近の研究は、位置情報(GPSなど)を中心にした1つの衛星画像によってカバーされた局所領域内で正確な情報を見つけるための新しい研究方向を開始した。
これは、複数の衛星候補による大規模な探索の後、スタンドアロンのソリューションまたは補完的なステップとして使用することができる。
しかし、これらの既存の作品には正確な初期向き(例えば、IMUからの角度)の事前が必要であり、また/または全ての可能なポーズを効率的に探索する必要はない。
効率的な探索を可能にするとともに,先行する角度の有無にかかわらず正確な予測を行うため,マルチスケール探索を行うPetalView抽出器を提案する。
PetalView抽出器は、2つの大きな異なるビューで同等のセマンティックな特徴を与え、マルチスケール検索戦略は、衛星画像を粗い粒度から細かい粒度まで効率的に検査し、サブメーターとサブ学位の精度の抽出を提供する。
さらに、先行する角度が与えられると、この情報を利用するための学習可能な事前アングルミキサーを提案する。
提案手法は,VIGORデータセット上で最高の性能を示し,位置推定に68.88%以内のリコールと1度(r@1d)21.10%以内のリコールで設定したKITTIデータセットテスト1の性能向上を実現した。
関連論文リスト
- FlightScope: A Deep Comprehensive Review of Aircraft Detection Algorithms in Satellite Imagery [2.9687381456164004]
本稿では,衛星画像中の航空機を識別するタスク用にカスタマイズされた,高度な物体検出アルゴリズム群を批判的に評価し,比較する。
この研究は、YOLOバージョン5と8、より高速なRCNN、CenterNet、RetinaNet、RTMDet、DETRを含む一連の方法論を含む。
YOLOv5は空中物体検出のための堅牢なソリューションとして登場し、平均的精度、リコール、ユニオンのスコアに対するインターセクションによってその重要性を裏付けている。
論文 参考訳(メタデータ) (2024-04-03T17:24:27Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Beyond Geo-localization: Fine-grained Orientation of Street-view Images
by Cross-view Matching with Satellite Imagery with Supplementary Materials [29.015865103837413]
クラウドソースされた膨大なストリートビュー画像がインターネットにアップロードされる。
この「使い捨て」状態の隠された宝物を作成するためには、位置情報とカメラ向きの角度が等しく重要な2つのタスクである。
近年, 衛星画像のプールとのクロスビューマッチングにより, ストリートビュー画像のジオローカライズに高い性能を実現している。
本研究では,ストリートビュー画像の微粒な配向を見つけることの重要性を再定義し,問題を正式に定義し,配向推定の品質を評価するための評価指標のセットを提供する。
論文 参考訳(メタデータ) (2023-07-07T05:50:14Z) - Cross-View Visual Geo-Localization for Outdoor Augmented Reality [11.214903134756888]
地上画像のクロスビューマッチングによる測地位置推定の課題をジオレファレンス衛星画像データベースに解決する。
本稿では,新しいトランスフォーマーニューラルネットワークモデルを提案する。
いくつかのベンチマーク・クロスビュー・ジオローカライズ・データセットの実験により、我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-03-28T01:58:03Z) - An Adaptive Threshold for the Canny Edge Detection with Actor-Critic
Algorithm [0.0]
ディープラーニングに基づくオブジェクト検出アルゴリズムでは、検出能力は古典的バックグラウンドサブトラクション(BGS)アルゴリズムよりも優れている。
本稿では、時間的・空間的な情報を抽出できる前景時間融合ネットワーク(STFN)を提案する。
提案アルゴリズムは、LASIESTAとSBIデータセットの最新のディープラーニング手法よりも11.28%と18.33%高い。
論文 参考訳(メタデータ) (2022-09-19T01:15:32Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。