論文の概要: Uncertainty-aware Vision-based Metric Cross-view Geolocalization
- arxiv url: http://arxiv.org/abs/2211.12145v1
- Date: Tue, 22 Nov 2022 10:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:10:43.591277
- Title: Uncertainty-aware Vision-based Metric Cross-view Geolocalization
- Title(参考訳): 不確かさを意識したメトリビュージオローカライゼーション
- Authors: Florian Fervers, Sebastian Bullinger, Christoph Bodensteiner, Michael
Arens, Rainer Stiefelhagen
- Abstract要約: 地上画像と空中画像を用いて車両のポーズの確率分布を予測するエンド・ツー・エンドの微分モデルを提案する。
テストエリアからの地上データや空中データなしでも、最先端の技術を大きなマージンで改善する。
- 参考スコア(独自算出の注目度): 25.87104194833264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel method for vision-based metric cross-view
geolocalization (CVGL) that matches the camera images captured from a
ground-based vehicle with an aerial image to determine the vehicle's geo-pose.
Since aerial images are globally available at low cost, they represent a
potential compromise between two established paradigms of autonomous driving,
i.e. using expensive high-definition prior maps or relying entirely on the
sensor data captured at runtime.
We present an end-to-end differentiable model that uses the ground and aerial
images to predict a probability distribution over possible vehicle poses. We
combine multiple vehicle datasets with aerial images from orthophoto providers
on which we demonstrate the feasibility of our method. Since the ground truth
poses are often inaccurate w.r.t. the aerial images, we implement a
pseudo-label approach to produce more accurate ground truth poses and make them
publicly available.
While previous works require training data from the target region to achieve
reasonable localization accuracy (i.e. same-area evaluation), our approach
overcomes this limitation and outperforms previous results even in the strictly
more challenging cross-area case. We improve the previous state-of-the-art by a
large margin even without ground or aerial data from the test region, which
highlights the model's potential for global-scale application. We further
integrate the uncertainty-aware predictions in a tracking framework to
determine the vehicle's trajectory over time resulting in a mean position error
on KITTI-360 of 0.78m.
- Abstract(参考訳): 本稿では,地上車両から撮影されたカメラ画像と空中画像とを整合させ,車両のジオポジショニングを判定する視覚ベースメトリッククロスビュージオローカイゼーション(cvgl)の新しい手法を提案する。
航空画像は世界中で低コストで利用可能であるため、既存の2つの自動運転パラダイム、すなわち高価な高精細な事前地図を使用するか、あるいは実行時にキャプチャされたセンサデータに完全に依存することによる妥協の可能性がある。
本稿では,地上画像と空中画像を用いて車両ポーズの確率分布を予測する,エンドツーエンドの微分可能モデルを提案する。
我々は,複数の車両データセットとオルソ写真提供者の航空画像を組み合わせて,その実現可能性を示す。
地上の真理のポーズは、しばしば航空画像に不正確なため、より正確な地上の真理のポーズを生成し、それらを一般に公開するための擬似ラベルのアプローチを実装している。
従来の研究では, 適切な局所化精度を達成するためには, 対象領域からのトレーニングデータを必要とするが, この制限を克服し, 厳格に困難なクロスエリアの場合においても, 先行結果を上回っている。
我々は,テスト領域の地上データや空中データなしでも,従来の最先端技術を大きなマージンで改善し,世界規模の応用の可能性を強調した。
さらに,追跡フレームワークに不確実性認識予測を統合することで,車両の走行経路を経時的に決定し,kitti-360の0.78mの平均位置誤差を発生させる。
関連論文リスト
- Adapting Fine-Grained Cross-View Localization to Areas without Fine Ground Truth [56.565405280314884]
本稿では,GTの微細化を伴わないターゲット領域の画像のみを活用することにより,新たなターゲット領域におけるトレーニングモデルの性能向上に焦点をあてる。
本稿では,知識の自己蒸留に基づく弱教師付き学習手法を提案する。
提案手法は,最近の2つのベンチマークモデルを用いて検証した。
論文 参考訳(メタデータ) (2024-06-01T15:58:35Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Energy-Based Models for Cross-Modal Localization using Convolutional
Transformers [52.27061799824835]
GPSのない衛星画像に対して、距離センサを搭載した地上車両を位置決めする新しい枠組みを提案する。
本稿では, 畳み込み変換器を用いて, 高精度な計量レベルの局所化を行う手法を提案する。
我々は、エンドツーエンドでモデルをトレーニングし、KITTI、Pandaset、カスタムデータセットの最先端技術よりも高い精度でアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-06T21:27:08Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Continuous Self-Localization on Aerial Images Using Visual and Lidar
Sensors [25.87104194833264]
本研究では,車両のセンサ情報を未確認対象領域の航空画像に登録することにより,屋外環境におけるジオトラッキング手法を提案する。
我々は、地上および空中画像から視覚的特徴を抽出するために、計量学習環境でモデルを訓練する。
本手法は,視認不可能な正光の自己局在化のために,エンド・ツー・エンドの微分可能なモデルでオンボードカメラを利用する最初の方法である。
論文 参考訳(メタデータ) (2022-03-07T12:25:44Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Vehicle Position Estimation with Aerial Imagery from Unmanned Aerial
Vehicles [4.555256739812733]
この研究は、航空画像から正確な車両の位置を推定する過程を記述する。
この目的のために最先端のディープニューラルネットワークMask-RCNNが適用される。
平均20cmの精度は、飛行高度100m、フルHD解像度、フレーム単位の検出で達成できる。
論文 参考訳(メタデータ) (2020-04-17T12:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。