論文の概要: VDD: Varied Drone Dataset for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.13608v2
- Date: Sun, 27 Aug 2023 14:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 23:34:47.063754
- Title: VDD: Varied Drone Dataset for Semantic Segmentation
- Title(参考訳): VDD: セマンティックセグメンテーションのための空のドローンデータセット
- Authors: Wenxiao Cai, Ke Jin, Jinyan Hou, Cong Guo, Letian Wu, Wankou Yang
- Abstract要約: 400の高解像度画像からなる大規模で高密度なラベル付きデータセットを提供する。
我々はCNNとTransformerのバックボーンを組み合わせた新しいDeepLabTモデルを開発した。
実験の結果,DeepLabTはVDDや他のドローンのデータセットで良好に動作することがわかった。
- 参考スコア(独自算出の注目度): 10.15287426479444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of drone images is critical to many aerial vision tasks
as it provides essential semantic details that can compensate for the lack of
depth information from monocular cameras. However, maintaining high accuracy of
semantic segmentation models for drones requires diverse, large-scale, and
high-resolution datasets, which are rare in the field of aerial image
processing. Existing datasets are typically small and focus primarily on urban
scenes, neglecting rural and industrial areas. Models trained on such datasets
are not sufficiently equipped to handle the variety of inputs seen in drone
imagery. In the VDD-Varied Drone Dataset, we offer a large-scale and densely
labeled dataset comprising 400 high-resolution images that feature carefully
chosen scenes, camera angles, and varied light and weather conditions.
Furthermore, we have adapted existing drone datasets to conform to our
annotation standards and integrated them with VDD to create a dataset 1.5 times
the size of fine annotation of Cityscapes. We have developed a novel DeepLabT
model, which combines CNN and Transformer backbones, to provide a reliable
baseline for semantic segmentation in drone imagery. Our experiments indicate
that DeepLabT performs admirably on VDD and other drone datasets. We expect
that our dataset will generate considerable interest in drone image
segmentation and serve as a foundation for other drone vision tasks. VDD is
freely available on our website at https://vddvdd.com .
- Abstract(参考訳): ドローン画像のセマンティックセグメンテーションは、単眼カメラからの深度情報の欠如を補う重要なセマンティックな詳細を提供するため、多くの空中視覚タスクにとって重要である。
しかし、ドローンのセマンティックセグメンテーションモデルの高精度を維持するには、多種多様で大規模で高解像度なデータセットが必要である。
既存のデータセットは概して小さく、主に都市部に集中し、田園部や工業地帯を無視している。
このようなデータセットでトレーニングされたモデルは、ドローン画像に見られるさまざまな入力を処理するのに十分な装備がない。
VDD-Varied Drone Datasetでは、慎重に選択されたシーン、カメラアングル、様々な光と気象条件を含む400の高解像度画像からなる大規模で高密度なラベル付きデータセットを提供する。
さらに、既存のドローンデータセットをアノテーション標準に適合させ、VDDと統合して、Cityscapesの細かいアノテーションの1.5倍の大きさのデータセットを作成しました。
我々は,CNNとTransformerのバックボーンを組み合わせた新しいDeepLabTモデルを開発し,ドローン画像のセマンティックセグメンテーションのための信頼性の高いベースラインを提供する。
実験の結果,DeepLabTはVDDや他のドローンのデータセットで良好に動作することがわかった。
われわれのデータセットはドローン画像のセグメンテーションにかなりの関心を惹き出し、他のドローンビジョンタスクの基礎となるだろう。
VDDは、私たちのWebサイトで、https://vddvdd.com.comで無料で利用可能です。
関連論文リスト
- FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - DDOS: The Drone Depth and Obstacle Segmentation Dataset [19.924944826583605]
現実の航空データセットの不足は、ロバストなモデルのトレーニングと評価に重大な課題をもたらす。
本研究では,航空ビューにおける深度とセマンティックセグメンテーションタスクに特化して設計された新しい合成データセットを提案する。
論文 参考訳(メタデータ) (2023-12-19T18:54:40Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Towards Robust Drone Vision in the Wild [1.14219428942199]
本稿では,ドローンビジョンのための画像超解像データセットを提案する。
異なる高度でデータを収集し、画像ペアを整列させる前処理手順を提案する。
異なる高度で頑健な画像超解像ネットワークを構築するための2つの手法が提案されている。
論文 参考訳(メタデータ) (2022-08-21T18:19:19Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Scarce Data Driven Deep Learning of Drones via Generalized Data
Distribution Space [12.377024173799631]
GAN(Generative Adversarial Network)を通じて、ドローンデータの一般的な分布を理解することで、不足したデータを取得して、迅速かつ正確な学習を実現することができることを示す。
我々は、実際のドローン画像とコンピュータ支援設計のシミュレーション画像の両方を含むドローン画像データセット上で、我々の結果を実証した。
論文 参考訳(メタデータ) (2021-08-18T17:07:32Z) - TJU-DHD: A Diverse High-Resolution Dataset for Object Detection [48.94731638729273]
大規模でリッチな多様性と高解像度のデータセットは、よりよいオブジェクト検出方法を開発する上で重要な役割を果たす。
私たちは多種多様な高解像度データセット(TJU-DHD)を構築します。
データセットには115,354枚の高解像度画像と709,330個のラベル付きオブジェクトが含まれており、スケールと外観に大きな違いがある。
論文 参考訳(メタデータ) (2020-11-18T09:32:24Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。