論文の概要: FlyAwareV2: A Multimodal Cross-Domain UAV Dataset for Urban Scene Understanding
- arxiv url: http://arxiv.org/abs/2510.13243v1
- Date: Wed, 15 Oct 2025 07:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.550065
- Title: FlyAwareV2: A Multimodal Cross-Domain UAV Dataset for Urban Scene Understanding
- Title(参考訳): FlyAwareV2: 都市景観理解のためのマルチモーダルクロスドメインUAVデータセット
- Authors: Francesco Barbato, Matteo Caligiuri, Pietro Zanuttigh,
- Abstract要約: FlyAwareV2は、都市景観理解タスクに適した、実際のUAV画像と合成UAV画像の両方を含む、新しいデータセットである。
最近導入されたSynDroneとFlyAwareデータセットに基づいて、FlyAwareV2はいくつかの重要なコントリビューションを導入した。
アノテーションの豊富なセットと環境多様性により、FlyAwareV2はUAVベースの都市景観理解の研究に貴重な資源を提供する。
- 参考スコア(独自算出の注目度): 14.353064152003867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of computer vision algorithms for Unmanned Aerial Vehicle (UAV) applications in urban environments heavily relies on the availability of large-scale datasets with accurate annotations. However, collecting and annotating real-world UAV data is extremely challenging and costly. To address this limitation, we present FlyAwareV2, a novel multimodal dataset encompassing both real and synthetic UAV imagery tailored for urban scene understanding tasks. Building upon the recently introduced SynDrone and FlyAware datasets, FlyAwareV2 introduces several new key contributions: 1) Multimodal data (RGB, depth, semantic labels) across diverse environmental conditions including varying weather and daytime; 2) Depth maps for real samples computed via state-of-the-art monocular depth estimation; 3) Benchmarks for RGB and multimodal semantic segmentation on standard architectures; 4) Studies on synthetic-to-real domain adaptation to assess the generalization capabilities of models trained on the synthetic data. With its rich set of annotations and environmental diversity, FlyAwareV2 provides a valuable resource for research on UAV-based 3D urban scene understanding.
- Abstract(参考訳): 都市環境における無人航空機(UAV)アプリケーションのためのコンピュータビジョンアルゴリズムの開発は、正確な注釈付き大規模データセットの利用に大きく依存している。
しかし、実際のUAVデータの収集と注釈付けは非常に困難でコストがかかる。
この制限に対処するため,都市景観理解作業に適した実物および合成UAV画像を含む新しいマルチモーダルデータセットFlyAwareV2を提案する。
最近導入されたSynDroneとFlyAwareデータセットに基づいて、FlyAwareV2はいくつかの重要なコントリビューションを紹介した。
1) 各種気象・日中を含む多様な環境条件におけるマルチモーダルデータ(RGB,深度,セマンティックラベル)
2)最先端単分子深度推定により計算した実試料の深さマップ
3)標準アーキテクチャにおけるRGBとマルチモーダルセマンティックセグメンテーションのベンチマーク
4) 合成データに基づいて訓練されたモデルの一般化能力を評価するための合成領域適応に関する研究。
アノテーションの豊富なセットと環境多様性により、FlyAwareV2はUAVベースの都市景観理解の研究に貴重な資源を提供する。
関連論文リスト
- UAVScenes: A Multi-Modal Dataset for UAVs [45.752766099526525]
UAVScenesは2Dと3Dの両方のモードでさまざまなタスクをベンチマークするために設計された大規模なデータセットである。
我々は、フレームワイド画像とLiDARポイントクラウドの両方に対して、手動でラベル付けされたセマンティックアノテーションを提供することにより、このデータセットを強化する。
これらの追加により、セグメンテーション、深さ推定、6-DoFローカライゼーション、位置認識、新しいビュー合成など、幅広いUAV認識タスクが可能になる。
論文 参考訳(メタデータ) (2025-07-30T06:29:52Z) - TUM2TWIN: Introducing the Large-Scale Multimodal Urban Digital Twin Benchmark Dataset [90.97440987655084]
都市デジタルツインズ(UDT)は、都市管理と多様なソースからの複雑な異種データの統合に欠かせないものとなっている。
これらの課題に対処するために、最初の総合的マルチモーダルなUrban Digital TwinベンチマークデータセットTUM2TWINを紹介する。
このデータセットには、地理的にセマンティックに整合した3Dモデルとネットワーク、およびさまざまな地球、モバイル、航空、衛星観測結果、約10,000ドル以上のデータサブセット、そして現在767GBのデータが含まれている。
論文 参考訳(メタデータ) (2025-05-12T09:48:32Z) - More Clear, More Flexible, More Precise: A Comprehensive Oriented Object Detection benchmark for UAV [58.89234732689013]
CODroneは、現実の状況を正確に反映した、UAVのための包括的なオブジェクト指向オブジェクト検出データセットである。
また、下流のタスク要求に合わせて設計された新しいベンチマークとしても機能する。
我々は、CODroneを厳格に評価するために、22の古典的またはSOTA法に基づく一連の実験を行う。
論文 参考訳(メタデータ) (2025-04-28T17:56:02Z) - InCrowd-VI: A Realistic Visual-Inertial Dataset for Evaluating SLAM in Indoor Pedestrian-Rich Spaces for Human Navigation [2.184775414778289]
InCrowd-VIは、屋内の歩行者の多い環境での人間のナビゲーションに特化したビジュアル慣性データセットである。
RGB、ステレオ画像、IMU測定など、合計5kmの軌道長と1.5時間の記録時間を含む58のシーケンスが特徴である。
このデータセットはMeta Ariaプロジェクトマシン認識SLAMサービスに由来する。
論文 参考訳(メタデータ) (2024-11-21T17:58:07Z) - Virtually Enriched NYU Depth V2 Dataset for Monocular Depth Estimation: Do We Need Artificial Augmentation? [61.234412062595155]
我々は、単眼深度推定のために設計された、ニューヨーク深度v2データセットの事実上拡張版であるANYUを紹介する。
仮想世界の完全な3Dシーンを利用して人工データセットを生成する、よく知られたアプローチとは対照的に、ANYUはバーチャルリアリティーオブジェクトのRGB-D表現を取り入れて作成された。
ANYUは,アーキテクチャがかなり異なるディープニューラルネットワークの単眼深度推定性能と一般化を改善したことを示す。
論文 参考訳(メタデータ) (2024-04-15T05:44:03Z) - UAVStereo: A Multiple Resolution Dataset for Stereo Matching in UAV
Scenarios [0.6524460254566905]
本稿では,UAVStereoと呼ばれる多解像度UAVシナリオデータセットを構築し,34k以上のステレオ画像ペアが3つの典型的なシーンをカバーしている。
本稿では,UAVシナリオにおける課題に対処する際の限界を明らかにするとともに,従来型および最先端のディープラーニング手法の評価を行う。
論文 参考訳(メタデータ) (2023-02-20T16:45:27Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。