論文の概要: SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite
- arxiv url: http://arxiv.org/abs/2204.10704v1
- Date: Fri, 22 Apr 2022 13:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:18:07.443923
- Title: SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite
- Title(参考訳): SUES-200: ドローンと衛星間の複数シーンのクロスビュー画像ベンチマーク
- Authors: Runzhe Zhu
- Abstract要約: クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングすることである。
SUES-200は、飛行高度の異なるドローンの空中撮影によって生じる違いを考察した最初のデータセットである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of cross-view image matching is to match images acquired from the
different platforms of the same target scene and then help positioning system
to infer the location of the target scene. With the rapid development of drone
technology, how to help Drone positioning or navigation through cross-view
matching technology has become a challenging research topic. However, the
accuracy of current cross-view matching models is still low, mainly because the
existing public datasets do not include the differences in images obtained by
drones at different heights, and the types of scenes are relatively
homogeneous, which makes the models unable to adapt to complex and changing
scenes. We propose a new cross-view dataset, SUES-200, to address these
issues.SUES-200 contains images acquired by the drone at four flight heights
and the corresponding satellite view images under the same target scene. To our
knowledge, SUES-200 is the first dataset that considers the differences
generated by aerial photography of drones at different flight heights. In
addition, we build a pipeline for efficient training testing and evaluation of
cross-view matching models. Then, we comprehensively evaluate the performance
of feature extractors with different CNN architectures on SUES-200 through an
evaluation system for cross-view matching models and propose a robust baseline
model. The experimental results show that SUES-200 can help the model learn
features with high discrimination at different heights. Evaluating indicators
of the matching system improves as the drone flight height gets higher because
the drone camera pose and the surrounding environment have less influence on
aerial photography.
- Abstract(参考訳): クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングし、ターゲットシーンの位置を推定する位置決めシステムを支援することである。
ドローン技術の急速な発展により、クロスビューマッチング技術によるドローンの位置決めやナビゲーションの支援が課題となっている。
しかし、現在のクロスビューマッチングモデルの精度は依然として低く、主に既存の公開データセットには、異なる高さでドローンが取得した画像の違いが含まれておらず、シーンの種類は比較的均一であるため、複雑で変化するシーンに適応できない。
我々は,これらの問題に対処する新しいクロスビューデータセットSUES-200を提案する。SUES-200には,ドローンが4つの飛行高度で取得した画像と,対応する衛星視像を同一のターゲットシーンで撮影する。
我々の知る限り、SUES-200は飛行高度の異なるドローンの空中撮影で生じる違いを考察した最初のデータセットである。
さらに,クロスビューマッチングモデルの効率的なトレーニングテストと評価のためのパイプラインを構築する。
次に,クロスビューマッチングモデルの評価システムを用いて,ses-200上でcnnアーキテクチャが異なる特徴抽出器の性能を包括的に評価し,ロバストなベースラインモデルを提案する。
実験の結果、ses-200は異なる高さで高い識別率で特徴を学習するのに役立つことがわかった。
ドローンカメラのポーズや周囲の環境が航空写真に影響を及ぼさないため、ドローンの飛行高度が高くなるにつれて、マッチングシステムの指標の評価が向上する。
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - VDD: Varied Drone Dataset for Semantic Segmentation [9.581655974280217]
7つのクラスにまたがる400の高解像度画像の大規模なラベル付きコレクションをリリースする。
このデータセットは、様々なカメラアングルから撮影され、様々な照明条件の下で都市、工業、農村、自然のエリアで様々なシーンを特徴としている。
私たちは、ドローンデータセットをベースラインとして7つの最先端モデルをトレーニングします。
論文 参考訳(メタデータ) (2023-05-23T02:16:14Z) - AirTrack: Onboard Deep Learning Framework for Long-Range Aircraft
Detection and Tracking [3.3773749296727535]
AirTrackは、sUASシステムのサイズ、重量、電力制約を尊重するリアルタイムの視覚のみの検出および追跡フレームワークである。
AirTrackは、Amazon Airborne Object Tracking(AOT)で最先端のアートベースラインを上回ります。
実験による評価から,本システムでは,最大で700mまでの95%以上をトラックできる可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-26T16:58:00Z) - Uncertainty Aware Multitask Pyramid Vision Transformer For UAV-Based
Object Re-Identification [38.19907319079833]
UAVベースのオブジェクトReIDのバックボーンとして、畳み込みのない新しいマルチスケールアーキテクチャであるPraamid Vision Transformer(PVT)を用いるマルチタスク学習手法を提案する。
クラス内変動の不確実性モデリングにより、不確実性認識オブジェクトIDとカメラID情報の両方を用いて、提案手法を協調的に最適化することができる。
論文 参考訳(メタデータ) (2022-09-19T00:27:07Z) - Towards Robust Drone Vision in the Wild [1.14219428942199]
本稿では,ドローンビジョンのための画像超解像データセットを提案する。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
異なる高度で頑健な画像超解像ネットワークを構築するための2つの手法が提案されている。
論文 参考訳(メタデータ) (2022-08-21T18:19:19Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。