論文の概要: University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization
- arxiv url: http://arxiv.org/abs/2002.12186v2
- Date: Sun, 16 Aug 2020 00:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:00:42.083136
- Title: University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization
- Title(参考訳): University-1652: ドローンによるジオローカライゼーションのためのマルチビューマルチソースベンチマーク
- Authors: Zhedong Zheng and Yunchao Wei and Yi Yang
- Abstract要約: 我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
- 参考スコア(独自算出の注目度): 87.74121935246937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of cross-view geo-localization. The primary challenge
of this task is to learn the robust feature against large viewpoint changes.
Existing benchmarks can help, but are limited in the number of viewpoints.
Image pairs, containing two viewpoints, e.g., satellite and ground, are usually
provided, which may compromise the feature learning. Besides phone cameras and
satellites, in this paper, we argue that drones could serve as the third
platform to deal with the geo-localization problem. In contrast to the
traditional ground-view images, drone-view images meet fewer obstacles, e.g.,
trees, and could provide a comprehensive view when flying around the target
place. To verify the effectiveness of the drone platform, we introduce a new
multi-view multi-source benchmark for drone-based geo-localization, named
University-1652. University-1652 contains data from three platforms, i.e.,
synthetic drones, satellites and ground cameras of 1,652 university buildings
around the world. To our knowledge, University-1652 is the first drone-based
geo-localization dataset and enables two new tasks, i.e., drone-view target
localization and drone navigation. As the name implies, drone-view target
localization intends to predict the location of the target place via drone-view
images. On the other hand, given a satellite-view query image, drone navigation
is to drive the drone to the area of interest in the query. We use this dataset
to analyze a variety of off-the-shelf CNN features and propose a strong CNN
baseline on this challenging dataset. The experiments show that University-1652
helps the model to learn the viewpoint-invariant features and also has good
generalization ability in the real-world scenario.
- Abstract(参考訳): クロスビューなジオローカライゼーションの問題を考える。
このタスクの主な課題は、大きな視点の変化に対して堅牢な機能を学ぶことです。
既存のベンチマークは役に立つが、視点の数には制限がある。
衛星と地上の2つの視点を含む画像ペアは通常提供され、特徴学習を損なう可能性がある。
この論文では、携帯電話のカメラや衛星のほかに、ドローンが地理的ローカライズ問題に対処するための第3のプラットフォームになり得ると論じている。
従来の地上ビュー画像とは対照的に、ドローンビュー画像は、木などの障害物が少ないため、ターゲットの場所を飛ぶときの全体像を提供することができる。
ドローンプラットフォームの有効性を検証するため,ドローンを用いたジオローカライゼーションのためのマルチビューマルチソースベンチマーク「University-1652」を導入する。
university-1652には3つのプラットフォーム、すなわち世界中の1,652の大学の建物の合成ドローン、衛星、地上カメラのデータが含まれている。
我々の知る限り、University-1652はドローンベースのジオローカライゼーションデータセットであり、ドローンビューターゲットローカライゼーションとドローンナビゲーションという2つの新しいタスクを可能にする。
名前が示すように、ドローンビューターゲットローカライズとは、ドローンビューイメージを通じてターゲットの場所を予測することだ。
一方、衛星ビューの問い合わせ画像があると、ドローンのナビゲーションは、クエリに興味のある領域にドローンを誘導する。
このデータセットを使用して、さまざまな既成のCNN機能を分析し、この挑戦的なデータセットに対して強力なCNNベースラインを提案する。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
関連論文リスト
- Game4Loc: A UAV Geo-Localization Benchmark from Game Data [0.0]
クロスビューペアデータの部分的マッチングを含む,より実用的なUAV測位タスクを提案する。
実験により,UAV測地のためのデータとトレーニング手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-25T13:33:28Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Geo-Localization via Ground-to-Satellite Cross-View Image Retrieval [25.93015219830576]
ランドマークの地平面画像から,衛星視画像の検索により地理空間のクロスビュー化を図っている。
我々は、地上視と衛星視の橋渡しとして、ドローン視情報を利用する。
論文 参考訳(メタデータ) (2022-05-22T17:35:13Z) - SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite [0.0]
クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングすることである。
SUES-200は、飛行高度の異なるドローンの空中撮影によって生じる違いを考察した最初のデータセットである。
論文 参考訳(メタデータ) (2022-04-22T13:49:52Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。