論文の概要: Jointly Optimized Global-Local Visual Localization of UAVs
- arxiv url: http://arxiv.org/abs/2310.08082v1
- Date: Thu, 12 Oct 2023 07:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 12:43:13.273726
- Title: Jointly Optimized Global-Local Visual Localization of UAVs
- Title(参考訳): 共同最適化によるUAVのグローバルローカライズ
- Authors: Haoling Li, Jiuniu Wang, Zhiwei Wei, Wenjia Xu
- Abstract要約: UAVのナビゲーションとローカライゼーションは、グローバルナビゲーション衛星システム(GNSS)が破壊され、信頼性が低い場合に課題となる。
既存の視覚的ローカライゼーション手法は, 衛星画像とのマッチングにより, 誤差蓄積を伴わない自律的な視覚的ローカライゼーションを実現する。
我々は,UAVの飛行シーンと類似する領域を見つける大規模検索モジュールと,正確なUAV座標をローカライズする細粒度マッチングモジュールを組み合わせた,GLVL(Global-Local Visual Localization)ネットワークを提案する。
本手法は, 粗いテクスチャ特徴を有する村のシーンにおいて, わずか2.39m×0.48秒の局所誤差を実現する。
- 参考スコア(独自算出の注目度): 17.83193033936859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Navigation and localization of UAVs present a challenge when global
navigation satellite systems (GNSS) are disrupted and unreliable. Traditional
techniques, such as simultaneous localization and mapping (SLAM) and visual
odometry (VO), exhibit certain limitations in furnishing absolute coordinates
and mitigating error accumulation. Existing visual localization methods achieve
autonomous visual localization without error accumulation by matching with
ortho satellite images. However, doing so cannot guarantee real-time
performance due to the complex matching process. To address these challenges,
we propose a novel Global-Local Visual Localization (GLVL) network. Our GLVL
network is a two-stage visual localization approach, combining a large-scale
retrieval module that finds similar regions with the UAV flight scene, and a
fine-grained matching module that localizes the precise UAV coordinate,
enabling real-time and precise localization. The training process is jointly
optimized in an end-to-end manner to further enhance the model capability.
Experiments on six UAV flight scenes encompassing both texture-rich and
texture-sparse regions demonstrate the ability of our model to achieve the
real-time precise localization requirements of UAVs. Particularly, our method
achieves a localization error of only 2.39 meters in 0.48 seconds in a village
scene with sparse texture features.
- Abstract(参考訳): UAVのナビゲーションとローカライゼーションは、グローバルナビゲーション衛星システム(GNSS)が破壊され、信頼性が低い場合に課題となる。
同時ローカライゼーションとマッピング(SLAM)やビジュアル・オドメトリー(VO)といった従来の手法は、絶対座標の整備や誤差蓄積の軽減に一定の制限を課している。
既存の視覚的ローカライゼーション手法は, 衛星画像とのマッチングにより, 誤差蓄積のない自律的な視覚的ローカライゼーションを実現する。
しかし、複雑なマッチングプロセスのため、リアルタイムのパフォーマンスを保証することはできない。
これらの課題に対処するため,我々はGlobal-Local Visual Localization (GLVL) ネットワークを提案する。
我々のGLVLネットワークは2段階の視覚的ローカライズ手法であり、UAV飛行シーンと類似した領域を見つける大規模な検索モジュールと、正確なUAV座標をローカライズし、リアルタイムかつ正確なローカライズを可能にするきめ細かいマッチングモジュールを組み合わせる。
トレーニングプロセスは、モデル能力をさらに強化するために、エンドツーエンドで共同最適化される。
テクスチャリッチ領域とテクスチャスパース領域の両方を含む6つのUAV飛行シーンの実験は、UAVの正確な位置決めをリアルタイムに行う能力を示す。
特に, 村の場面では, テクスチャの少ない2.39mのローカライズ誤差を0.48秒で達成した。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - GOMAA-Geo: GOal Modality Agnostic Active Geo-localization [49.599465495973654]
エージェントが空中ナビゲーション中に観測された一連の視覚的手がかりを用いて、複数の可能なモダリティによって特定されたターゲットを見つけるという、アクティブなジオローカライゼーション(AGL)の課題を考察する。
GOMAA-Geo は、ゴールモダリティ間のゼロショット一般化のためのゴールモダリティアクティブなジオローカライゼーションエージェントである。
論文 参考訳(メタデータ) (2024-06-04T02:59:36Z) - AGL-NET: Aerial-Ground Cross-Modal Global Localization with Varying Scales [45.315661330785275]
我々は,LiDAR点雲と衛星地図を用いたグローバルローカライゼーションのための新しい学習手法であるAGL-NETを提案する。
我々は,特徴マッチングのための画像と点間の表現ギャップを埋めること,グローバルビューとローカルビューのスケールの相違に対処すること,という2つの重要な課題に取り組む。
論文 参考訳(メタデータ) (2024-04-04T04:12:30Z) - UAVD4L: A Large-Scale Dataset for UAV 6-DoF Localization [14.87295056434887]
局所化のための大規模6-DoF UAVデータセット(UAVD4L)を提案する。
オフライン合成データ生成とオンラインビジュアルローカライゼーションからなる2段階6-DoFローカライゼーションパイプライン(UAVLoc)を開発した。
新しいデータセットの結果は,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-01-11T15:19:21Z) - Spatial-Aware Token for Weakly Supervised Object Localization [137.0570026552845]
タスク固有の空間認識トークンを,弱教師付き方式で条件定位に提案する。
実験の結果、SATはCUB-200とImageNetの両方で、98.45%と73.13%のGT-known Locで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-03-18T15:38:17Z) - BEVBert: Multimodal Map Pre-training for Language-guided Navigation [75.23388288113817]
視覚・言語ナビゲーション(VLN)における空間認識型マップベース事前学習パラダイムを提案する。
我々は,グローバルなトポロジカルマップにおけるナビゲーション依存性をモデル化しながら,不完全な観測を明示的に集約し,重複を取り除くための局所距離マップを構築した。
ハイブリッドマップをベースとして,マルチモーダルマップ表現を学習するための事前学習フレームワークを考案し,空間認識型クロスモーダル推論を強化し,言語誘導ナビゲーションの目標を導出する。
論文 参考訳(メタデータ) (2022-12-08T16:27:54Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Think Global, Act Local: Dual-scale Graph Transformer for
Vision-and-Language Navigation [87.03299519917019]
本稿では,2次元グラフ変換器 (DUET) を提案する。
我々は,グローバルな行動空間における効率的な探索を可能にするために,トポロジカルマップをオンザフライで構築する。
提案手法であるDUETは、目標指向の視覚・言語ナビゲーションベンチマークにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-23T19:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。