論文の概要: Satellite Image Based Cross-view Localization for Autonomous Vehicle
- arxiv url: http://arxiv.org/abs/2207.13506v1
- Date: Wed, 27 Jul 2022 13:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:42:03.877991
- Title: Satellite Image Based Cross-view Localization for Autonomous Vehicle
- Title(参考訳): 衛星画像を用いた自律走行車両のクロスビュー位置推定
- Authors: Shan Wang, Yanhao Zhang, Hongdong Li
- Abstract要約: 本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
従来の方法では、このタスクを画像検索、すなわち、車両が捉えた地上画像と衛星画像とのマッチングとしてのみ扱う。
- 参考スコア(独自算出の注目度): 78.66482504221044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing spatial localization techniques for autonomous vehicles mostly use a
pre-built 3D-HD map, often constructed using a survey-grade 3D mapping vehicle,
which is not only expensive but also laborious. This paper shows that by using
an off-the-shelf high-definition satellite image as a ready-to-use map, we are
able to achieve cross-view vehicle localization up to a satisfactory accuracy,
providing a cheaper and more practical way for localization. Although the idea
of using satellite images for cross-view localization is not new, previous
methods almost exclusively treat the task as image retrieval, namely matching a
vehicle-captured ground-view image with the satellite image. This paper
presents a novel cross-view localization method, which departs from the common
wisdom of image retrieval. Specifically, our method develops (1) a
Geometric-align Feature Extractor (GaFE) that leverages measured 3D points to
bridge the geometric gap between ground view and overhead view, (2) a Pose
Aware Branch (PAB) adopting a triplet loss to encourage pose-aware feature
extracting, and (3) a Recursive Pose Refine Branch (RPRB) using the
Levenberg-Marquardt (LM) algorithm to align the initial pose towards the true
vehicle pose iteratively. Our method is validated on KITTI and Ford Multi-AV
Seasonal datasets as ground view and Google Maps as the satellite view. The
results demonstrate the superiority of our method in cross-view localization
with spatial and angular errors within 1 meter and $2^\circ$, respectively. The
code will be made publicly available.
- Abstract(参考訳): 既存の自動運転車の空間的ローカライゼーション技術は、主に3D-HDマップを使用しており、しばしば調査グレードの3Dマッピング車両を使って構築されている。
本稿では,市販の高精細衛星画像を利用可能マップとして利用することにより,より安価で実用的なローカライズ手法を提供するとともに,車両の視認精度を最大化できることを示す。
衛星画像を用いたクロスビューローカライゼーションの考え方は新しいものではないが、従来の方法では、車載地上画像と衛星画像とをマッチングして、タスクを画像検索として扱うことがほとんどであった。
本稿では,画像検索の共通知識から外れた,新しいクロスビュー定位手法を提案する。
具体的には,(1)地上の視界と頭上の視界の間の幾何学的ギャップを埋めるために計測された3次元点を利用した幾何学的特徴抽出器 (GaFE) ,(2) 姿勢認識特徴抽出を促進するために三重項損失を適用したPose Aware Branch (PAB) ,(3) レバンス・マルカルト (LM) アルゴリズムを用いたRecursive Pose Refine Branch (RPRB) を開発し,実際の車両に対する最初のポーズを反復的に調整する。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
その結果, 空間的および角的誤差を1m以内, 2^\circ$あたりに有意な相関が認められた。
コードは公開される予定だ。
関連論文リスト
- Pixel to Elevation: Learning to Predict Elevation Maps at Long Range using Images for Autonomous Offroad Navigation [10.898724668444125]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Coarse-to-fine Semantic Localization with HD Map for Autonomous Driving
in Structural Scenes [1.1024591739346292]
カメラを主センサとする自動運転のためのHDマップを用いたコスト効率の高い車両位置決めシステムを提案する。
視覚的セマンティクスをHDマップのランドマークにマップするデータアソシエーション問題として視覚に基づくローカライゼーションを定式化する。
本手法を2つのデータセット上で評価し,提案手法が異なる運転シナリオにおいて有望なローカライゼーション結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-06T11:58:55Z) - Crowdsourced 3D Mapping: A Combined Multi-View Geometry and
Self-Supervised Learning Approach [10.610403488989428]
本稿では,意味的意味のあるランドマークの3次元位置を,カメラ固有の知識を仮定せずに推定するフレームワークを提案する。
交通標識の位置推定には,多視点幾何と深層学習に基づく自己校正,深度,エゴモーション推定を利用する。
我々はそれぞれ39cmと1.26mの平均単方向相対位置と絶対位置の精度を達成した。
論文 参考訳(メタデータ) (2020-07-25T12:10:16Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。