論文の概要: Drone Referring Localization: An Efficient Heterogeneous Spatial Feature Interaction Method For UAV Self-Localization
- arxiv url: http://arxiv.org/abs/2208.06561v3
- Date: Wed, 28 Aug 2024 04:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 21:50:55.872695
- Title: Drone Referring Localization: An Efficient Heterogeneous Spatial Feature Interaction Method For UAV Self-Localization
- Title(参考訳): ドローンのローカライゼーション:UAV自己ローカライゼーションのための効率的な不均一空間特徴相互作用法
- Authors: Ming Dai, Enhui Zheng, Jiahao Chen, Lei Qi, Zhenhua Feng, Wankou Yang,
- Abstract要約: 我々は、Drone Referring Localization(DRL)と呼ばれる、効率的な異種空間特徴相互作用法を提案する。
異なるデータソースを分離して扱う従来の方法とは異なり、DRLは異種特徴の学習可能な相互作用を促進する。
従来のIR法と比較して、DRLはより優れたローカライズ精度(MA@20 + 9.4%)を実現し、計算時間(1/7)とストレージオーバーヘッド(2/3)を大幅に削減した。
- 参考スコア(独自算出の注目度): 22.94589565476653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image retrieval (IR) has emerged as a promising approach for self-localization in unmanned aerial vehicles (UAVs). However, IR-based methods face several challenges: 1) Pre- and post-processing incur significant computational and storage overhead; 2) The lack of interaction between dual-source features impairs precise spatial perception. In this paper, we propose an efficient heterogeneous spatial feature interaction method, termed Drone Referring Localization (DRL), which aims to localize UAV-view images within satellite imagery. Unlike conventional methods that treat different data sources in isolation, followed by cosine similarity computations, DRL facilitates the learnable interaction of heterogeneous features. To implement the proposed DRL, we design two transformer-based frameworks, Post-Fusion and Mix-Fusion, enabling end-to-end training and inference. Furthermore, we introduce random scale cropping and weight balance loss techniques to augment paired data and optimize the balance between positive and negative sample weights. Additionally, we construct a new dataset, UL14, and establish a benchmark tailored to the DRL framework. Compared to traditional IR methods, DRL achieves superior localization accuracy (MA@20 +9.4\%) while significantly reducing computational time (1/7) and storage overhead (1/3). The dataset and code will be made publicly available. The dataset and code are available at \url{https://github.com/Dmmm1997/DRL} .
- Abstract(参考訳): 画像検索(IR)は無人航空機(UAV)における自己ローカライゼーションのための有望なアプローチとして浮上している。
しかし、IRベースの手法はいくつかの課題に直面している。
1)前処理及び後処理は,重要な計算及び記憶上のオーバーヘッドを引き起こす。
2) 二重音源間の相互作用の欠如は, 正確な空間知覚を損なう。
本稿では,衛星画像中のUAVビュー画像をローカライズすることを目的とした,Drone Referring Localization (DRL) と呼ばれる,効率的な異種空間特徴相互作用手法を提案する。
異なるデータソースを分離して扱う従来の方法とは異なり、DRLは異種特徴の学習可能な相互作用を促進する。
提案するDRLを実装するために,2つのトランスフォーマーベースのフレームワークであるPost-FusionとMix-Fusionを設計し,エンドツーエンドのトレーニングと推論を可能にする。
さらに,ペアデータの拡大と,正と負のサンプル重みのバランスの最適化のために,ランダムスケールトリミングと重みバランス損失手法を導入する。
さらに,新しいデータセットUL14を構築し,DRLフレームワークに適したベンチマークを確立する。
従来のIR法と比較して、DRLはより優れたローカライズ精度(MA@20 + 9.4\%)を実現し、計算時間(1/7)とストレージオーバーヘッド(1/3)を大幅に削減した。
データセットとコードは公開されます。
データセットとコードは \url{https://github.com/Dmmm 1997/DRL} で公開されている。
関連論文リスト
- Fast-Convergent and Communication-Alleviated Heterogeneous Hierarchical Federated Learning in Autonomous Driving [29.646749372031593]
ストリートシーンのセマンティック理解(TriSU)は、自動運転(AD)の複雑なタスクである
特定の地理的領域のデータからトレーニングされた推論モデルは、都市間データドメインシフトによって他の領域に適用された場合、一般化が不十分である。
Hierarchical Federated Learning (HFL)は、異なる都市の分散データセット上での協調的なプライバシ保存トレーニングによって、TriSUモデルの一般化を改善する潜在的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-09-29T05:27:40Z) - DANCE: Dual-View Distribution Alignment for Dataset Condensation [39.08022095906364]
我々は、データセットのコンディエンテーション(DANCE)のためのDMベースの新しいDual-view Distribution AligNmentを提案する。
具体的には、内部クラスの観点から複数の「中間エンコーダ」を構築し、擬似的な長期分布アライメントを行う。
クラス間の観点からは,分布キャリブレーションを行うために専門家モデルを用いる。
論文 参考訳(メタデータ) (2024-06-03T07:22:17Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Train a Real-world Local Path Planner in One Hour via Partially
Decoupled Reinforcement Learning and Vectorized Diversity [8.068886870457561]
深層強化学習(DRL)は局所経路計画(LPP)問題の解決に有効である。
実世界におけるそのような応用は、DRLの訓練効率と一般化能力の不足により、非常に制限されている。
アクター・シャーラーラーナー(ASL)トレーニングフレームワークと移動ロボット指向シミュレータSparrowで構成されたColorというソリューションが提案されている。
論文 参考訳(メタデータ) (2023-05-07T03:39:31Z) - Parallel Augmentation and Dual Enhancement for Occluded Person
Re-identification [70.96277129480478]
被占領者の再識別(Re-ID)はここ数十年で多くの注目を集めている。
近年のアプローチは、隠蔽データの性能向上に重点を置いている。
PADE(Parallel Augmentation and Dual Enhancement)を用いた簡易かつ効果的な手法を提案する。
提案手法の有効性を検証するために, 広く使用されている3つの隠蔽データセットと2つの非隠蔽データセットの実験結果を得た。
論文 参考訳(メタデータ) (2022-10-11T13:29:38Z) - Enhancing Generative Networks for Chest Anomaly Localization through Automatic Registration-Based Unpaired-to-Pseudo-Paired Training Data Translation [4.562196564569076]
胸部X線画像(AL-CXR)におけるGAN-ITは異常領域の正確な位置決め法として有望である
本稿では,登録とデータ拡張を含む2段階のGAN-ITを提案する。
論文 参考訳(メタデータ) (2022-07-21T06:42:12Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。