論文の概要: DrIFT: Autonomous Drone Dataset with Integrated Real and Synthetic Data, Flexible Views, and Transformed Domains
- arxiv url: http://arxiv.org/abs/2412.04789v1
- Date: Fri, 06 Dec 2024 05:47:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:56:14.866244
- Title: DrIFT: Autonomous Drone Dataset with Integrated Real and Synthetic Data, Flexible Views, and Transformed Domains
- Title(参考訳): DrIFT: 実データと合成データ、フレキシブルビュー、変換ドメインを備えた自律型ドローンデータセット
- Authors: Fardad Dadboud, Hamid Azad, Varun Mehta, Miodrag Bolic, Iraj Mntegh,
- Abstract要約: 本稿では,ドメインシフト下での視覚的ドローン検出のためのDriIFTデータセットを提案する。
DrIFTには14の異なる領域があり、それぞれが視点の変化、合成から現実のデータ、季節、悪天候を特徴としている。
我々は不確実性を認識しないドメイン適応法においてMCDOマップを使用し、SOTA非教師付きドメイン適応法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Dependable visual drone detection is crucial for the secure integration of drones into the airspace. However, drone detection accuracy is significantly affected by domain shifts due to environmental changes, varied points of view, and background shifts. To address these challenges, we present the DrIFT dataset, specifically developed for visual drone detection under domain shifts. DrIFT includes fourteen distinct domains, each characterized by shifts in point of view, synthetic-to-real data, season, and adverse weather. DrIFT uniquely emphasizes background shift by providing background segmentation maps to enable background-wise metrics and evaluation. Our new uncertainty estimation metric, MCDO-map, features lower postprocessing complexity, surpassing traditional methods. We use the MCDO-map in our uncertainty-aware unsupervised domain adaptation method, demonstrating superior performance to SOTA unsupervised domain adaptation techniques. The dataset is available at: https://github.com/CARG-uOttawa/DrIFT.git.
- Abstract(参考訳): ドローンの空域への安全な統合には、依存型視覚ドローン検出が不可欠である。
しかし, ドローン検出精度は, 環境変化, 様々な視点, 背景変化などにより, 領域シフトの影響が大きい。
これらの課題に対処するため,ドメインシフト下での視覚的ドローン検出のために開発されたDrIFTデータセットを提案する。
DrIFTには14の異なる領域があり、それぞれが視点の変化、合成から現実のデータ、季節、悪天候を特徴としている。
DrIFTはバックグラウンド・セグメンテーション・マップを提供し、バックグラウンド・ワイド・メトリクスと評価を可能にすることで背景シフトを独特に強調する。
我々の新しい不確実性推定指標MCDO-mapは、従来の手法を超越した、後処理の複雑さの低下を特徴としている。
我々は不確実性を認識しないドメイン適応法においてMCDOマップを使用し、SOTA非教師付きドメイン適応法よりも優れた性能を示す。
データセットはhttps://github.com/CARG-uOttawa/DrIFT.git.comで公開されている。
関連論文リスト
- Drone Detection using Deep Neural Networks Trained on Pure Synthetic Data [0.4369058206183195]
実世界のデータに転送する純粋に合成されたデータセットに基づいて訓練されたドローン検出高速RCNNモデルを提案する。
以上の結果から, 合成データを用いたドローン検出は, 収集コストを低減し, ラベル付け品質を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-13T23:09:53Z) - DroBoost: An Intelligent Score and Model Boosting Method for Drone Detection [1.2564343689544843]
ドローン検出は、画像の可視性や品質が好ましくないような、困難な物体検出タスクである。
私たちの仕事は、いくつかの改善を組み合わせることで、以前のアプローチを改善します。
提案された技術は、Drone vs. Bird Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2024-06-30T20:49:56Z) - DDOS: The Drone Depth and Obstacle Segmentation Dataset [16.86600007830682]
Drone Depth and Obstacle(DDOS)データセットは、セマンティックセグメンテーションと深さ推定のための包括的なトレーニングサンプルを提供するために作成された。
具体的には、細い構造物の識別を強化するために設計されたDDOSによって、ドローンは幅広い気象条件をナビゲートすることができる。
論文 参考訳(メタデータ) (2023-12-19T18:54:40Z) - A Two-Dimensional Deep Network for RF-based Drone Detection and
Identification Towards Secure Coverage Extension [7.717171534776764]
時間領域情報と周波数領域情報の両方を含む生信号から2次元特徴を抽出するために,ショートタイムフーリエ変換を用いる。
次に、ResNet構造で構築された畳み込みニューラルネットワーク(CNN)を用いて、マルチクラス分類を実現する。
実験の結果,提案したResNet-STFTは,拡張データセット上でより精度が高く,より高速に収束できることがわかった。
論文 参考訳(メタデータ) (2023-08-26T15:43:39Z) - VBSF-TLD: Validation-Based Approach for Soft Computing-Inspired Transfer
Learning in Drone Detection [0.0]
本稿では,コンピュータビジョンベースモジュールの不可欠な部分を構成する移動型ドローン検出手法を提案する。
事前学習されたモデルの知識を関連ドメインから活用することにより、限られたトレーニングデータであっても、トランスファー学習によりより良い結果が得られる。
特に、このスキームの有効性は、IOUベースの検証結果によって強調される。
論文 参考訳(メタデータ) (2023-06-11T22:30:23Z) - Deep Metric Learning for Unsupervised Remote Sensing Change Detection [60.89777029184023]
リモートセンシング変化検出(RS-CD)は、マルチテンポラルリモートセンシング画像(MT-RSI)から関連する変化を検出することを目的とする。
既存のRS-CD法の性能は、大規模な注釈付きデータセットのトレーニングによるものである。
本稿では,これらの問題に対処可能なディープメトリック学習に基づく教師なしCD手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:52:45Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。