論文の概要: BEVLoc: Cross-View Localization and Matching via Birds-Eye-View Synthesis
- arxiv url: http://arxiv.org/abs/2410.06410v1
- Date: Tue, 8 Oct 2024 22:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 05:49:26.092264
- Title: BEVLoc: Cross-View Localization and Matching via Birds-Eye-View Synthesis
- Title(参考訳): BEVLoc:Birds-Eye-View 合成によるクロスビューローカライゼーションとマッチング
- Authors: Christopher Klammer, Michael Kaess,
- Abstract要約: オフロード環境において,鳥眼ビュー (BEV) のシーン表現を合成し,航空地図とのマッチングとローカライズを行うための新しい枠組みを提案する。
我々は,合成されたBEVと航空地図の類似表現を学習するために,ドメイン固有の負のマイニングによる対照的な学習を活用してネットワークを訓練する。
本研究は,極難林環境における有望な初期成果を示すものである。
- 参考スコア(独自算出の注目度): 22.69620338108094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ground to aerial matching is a crucial and challenging task in outdoor robotics, particularly when GPS is absent or unreliable. Structures like buildings or large dense forests create interference, requiring GNSS replacements for global positioning estimates. The true difficulty lies in reconciling the perspective difference between the ground and air images for acceptable localization. Taking inspiration from the autonomous driving community, we propose a novel framework for synthesizing a birds-eye-view (BEV) scene representation to match and localize against an aerial map in off-road environments. We leverage contrastive learning with domain specific hard negative mining to train a network to learn similar representations between the synthesized BEV and the aerial map. During inference, BEVLoc guides the identification of the most probable locations within the aerial map through a coarse-to-fine matching strategy. Our results demonstrate promising initial outcomes in extremely difficult forest environments with limited semantic diversity. We analyze our model's performance for coarse and fine matching, assessing both the raw matching capability of our model and its performance as a GNSS replacement. Our work delves into off-road map localization while establishing a foundational baseline for future developments in localization. Our code is available at: https://github.com/rpl-cmu/bevloc
- Abstract(参考訳): 地上と空中のマッチングは、特にGPSが欠如している場合や信頼性が低い場合、屋外ロボティクスにおいて重要な課題である。
建物や高密度の森林のような構造は干渉を引き起こし、グローバルな位置推定のためにGNSSを置き換える必要がある。
真の難しさは、地表面と空気像の視点差を調整して、許容できる位置を求めることである。
自律運転コミュニティからインスピレーションを得て,オフロード環境における航空地図とのマッチングとローカライズを行うために,鳥眼ビュー(BEV)シーン表現を合成する新しい枠組みを提案する。
我々は,合成されたBEVと航空地図の類似表現を学習するために,ドメイン固有の負のマイニングによる対照的な学習を活用してネットワークを訓練する。
推測中、BEVLocは粗いマッチング戦略を通じて、空中マップ内の最も可能性の高い場所の同定をガイドする。
本研究は,極難林環境における有望な初期成果を示すものである。
GNSSの代替品として,モデルの生のマッチング能力と性能の両方を評価し,粗大かつ微妙なマッチングのためのモデルの性能を分析した。
我々の研究は、オフロードマップのローカライゼーションと、将来のローカライゼーションの基盤となるベースラインを確立することを目的としている。
私たちのコードは、https://github.com/rpl-cmu/bevloc.comで利用可能です。
関連論文リスト
- Adapting Fine-Grained Cross-View Localization to Areas without Fine Ground Truth [56.565405280314884]
本稿では,GTの微細化を伴わないターゲット領域の画像のみを活用することにより,新たなターゲット領域におけるトレーニングモデルの性能向上に焦点をあてる。
本稿では,知識の自己蒸留に基づく弱教師付き学習手法を提案する。
提案手法は,最近の2つのベンチマークモデルを用いて検証した。
論文 参考訳(メタデータ) (2024-06-01T15:58:35Z) - View Distribution Alignment with Progressive Adversarial Learning for
UAV Visual Geo-Localization [10.442998017077795]
無人航空機(UAV)の視覚的ジオローカライゼーションは、異なるビュー、すなわちUAVビューと衛星ビューから取得した同じ地理的ターゲットの画像とマッチングすることを目的としている。
以前の作業では、UAVや衛星が撮影した画像を共有特徴空間にマッピングし、位置に依存した特徴を学習するための分類フレームワークを使用していた。
本稿では,2つのビューの分布アライメントを導入し,共通空間における距離を短縮する。
論文 参考訳(メタデータ) (2024-01-03T06:58:09Z) - Energy-Based Models for Cross-Modal Localization using Convolutional
Transformers [52.27061799824835]
GPSのない衛星画像に対して、距離センサを搭載した地上車両を位置決めする新しい枠組みを提案する。
本稿では, 畳み込み変換器を用いて, 高精度な計量レベルの局所化を行う手法を提案する。
我々は、エンドツーエンドでモデルをトレーニングし、KITTI、Pandaset、カスタムデータセットの最先端技術よりも高い精度でアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-06T21:27:08Z) - A Gis Aided Approach for Geolocalizing an Unmanned Aerial System Using
Deep Learning [0.4297070083645048]
本稿では,GPS信号の劣化や拒否時にUASをジオローカライズする手法を提案する。
UASは、プラットフォームが飛ぶとリアルタイム画像を取得することができる、下向きのカメラをプラットフォーム上に備えているので、ジオローカライゼーションを実現するために、最新のディープラーニング技術を適用します。
我々は,OpenStreetMap (OSM) からGIS情報を抽出し,意味的に一致した特徴をビルディングクラスとランドスケープクラスに分割する。
論文 参考訳(メタデータ) (2022-08-25T17:51:15Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Co-visual pattern augmented generative transformer learning for
automobile geo-localization [12.449657263683337]
クロスビュージオローカライゼーション(CVGL)は、地上カメラの地理的位置を、巨大なジオタグ付き空中画像とマッチングすることによって推定することを目的としている。
CVGLのための相互生成型トランスフォーマー学習(MGTL)という,トランスフォーマーと組み合わせたクロスビュー知識生成技術を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T07:29:02Z) - Think Global, Act Local: Dual-scale Graph Transformer for
Vision-and-Language Navigation [87.03299519917019]
本稿では,2次元グラフ変換器 (DUET) を提案する。
我々は,グローバルな行動空間における効率的な探索を可能にするために,トポロジカルマップをオンザフライで構築する。
提案手法であるDUETは、目標指向の視覚・言語ナビゲーションベンチマークにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-23T19:06:53Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。