論文の概要: Drone Detection using Deep Neural Networks Trained on Pure Synthetic Data
- arxiv url: http://arxiv.org/abs/2411.09077v1
- Date: Wed, 13 Nov 2024 23:09:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:25:39.577637
- Title: Drone Detection using Deep Neural Networks Trained on Pure Synthetic Data
- Title(参考訳): 純合成データを用いた深部ニューラルネットワークによるドローン検出
- Authors: Mariusz Wisniewski, Zeeshan A. Rana, Ivan Petrunin, Alan Holt, Stephen Harman,
- Abstract要約: 実世界のデータに転送する純粋に合成されたデータセットに基づいて訓練されたドローン検出高速RCNNモデルを提案する。
以上の結果から, 合成データを用いたドローン検出は, 収集コストを低減し, ラベル付け品質を向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.4369058206183195
- License:
- Abstract: Drone detection has benefited from improvements in deep neural networks, but like many other applications, suffers from the availability of accurate data for training. Synthetic data provides a potential for low-cost data generation and has been shown to improve data availability and quality. However, models trained on synthetic datasets need to prove their ability to perform on real-world data, known as the problem of sim-to-real transferability. Here, we present a drone detection Faster-RCNN model trained on a purely synthetic dataset that transfers to real-world data. We found that it achieves an AP_50 of 97.0% when evaluated on the MAV-Vid - a real dataset of flying drones - compared with 97.8% for an equivalent model trained on real-world data. Our results show that using synthetic data for drone detection has the potential to reduce data collection costs and improve labelling quality. These findings could be a starting point for more elaborate synthetic drone datasets. For example, realistic recreations of specific scenarios could de-risk the dataset generation of safety-critical applications such as the detection of drones at airports. Further, synthetic data may enable reliable drone detection systems, which could benefit other areas, such as unmanned traffic management systems. The code is available https://github.com/mazqtpopx/cranfield-synthetic-drone-detection alongside the datasets https://huggingface.co/datasets/mazqtpopx/cranfield-synthetic-drone-detection.
- Abstract(参考訳): ドローン検出は、ディープニューラルネットワークの改善による恩恵を受けているが、他の多くのアプリケーションと同様に、トレーニング用の正確なデータの入手に悩まされている。
合成データは、低コストのデータ生成の可能性を提供し、データの可用性と品質を改善することが示されている。
しかし、合成データセットで訓練されたモデルは、sim-to-realトランスファービリティの問題として知られる実世界のデータで実行する能力を証明する必要がある。
本稿では、実世界のデータに転送する純粋に合成されたデータセットに基づいて訓練されたドローン検出高速RCNNモデルを提案する。
実際の飛行ドローンのデータセットであるMAV-Vidで評価すると、AP_50が97.0%に達することがわかった。
以上の結果から, 合成データを用いたドローン検出は, 収集コストを低減し, ラベル付け品質を向上する可能性が示唆された。
これらの発見は、より精巧な合成ドローンデータセットの出発点になるかもしれない。
例えば、特定のシナリオの現実的なレクリエーションは、空港でのドローンの検出など、安全クリティカルなアプリケーションのデータセット生成を損なう可能性がある。
さらに、合成データは信頼性の高いドローン検知システムを可能にし、無人の交通管理システムなど他の分野にも恩恵をもたらす可能性がある。
コードは https://github.com/mazqtpopx/cranfield-synthetic-drone-detection とデータセット https://huggingface.co/datasets/mazqtpopx/cranfield-synthetic-drone-detection で利用できる。
関連論文リスト
- Improving Object Detector Training on Synthetic Data by Starting With a Strong Baseline Methodology [0.14980193397844666]
本稿では,合成データを用いた学習における事前学習対象検出器の性能向上手法を提案する。
提案手法は,実画像の事前学習から得られた有用な特徴を忘れずに,合成データから有能な情報を抽出することに焦点を当てる。
論文 参考訳(メタデータ) (2024-05-30T08:31:01Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - A Synthetic Dataset for 5G UAV Attacks Based on Observable Network
Parameters [3.468596481227013]
本稿では,5G以降のネットワークにおける無人航空機(UAV)攻撃のための最初の合成データセットを提案する。
このデータの主な目的は、UAV通信セキュリティのためのディープネットワーク開発を可能にすることである。
提案したデータセットは、都市環境において、静的または移動中のUAV攻撃者が認証されたUAVをターゲットにする際のネットワーク機能に関する洞察を提供する。
論文 参考訳(メタデータ) (2022-11-05T15:12:51Z) - Track Boosting and Synthetic Data Aided Drone Detection [0.0]
本手法は, YOLOv5モデルを実データおよび合成データで微調整することにより, ドローン検出問題にアプローチする。
以上の結果から,合成データの最適なサブセットで実データを増やすことで,性能が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-24T10:16:27Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Scarce Data Driven Deep Learning of Drones via Generalized Data
Distribution Space [12.377024173799631]
GAN(Generative Adversarial Network)を通じて、ドローンデータの一般的な分布を理解することで、不足したデータを取得して、迅速かつ正確な学習を実現することができることを示す。
我々は、実際のドローン画像とコンピュータ支援設計のシミュレーション画像の両方を含むドローン画像データセット上で、我々の結果を実証した。
論文 参考訳(メタデータ) (2021-08-18T17:07:32Z) - UnrealPerson: An Adaptive Pipeline towards Costless Person
Re-identification [102.58619642363959]
本稿では,unrealpersonという,非現実的な画像データをフル活用して,トレーニングとデプロイメントの両面でコストを削減する新しいパイプラインを提案する。
3,000のIDと12万のインスタンスで、MSMT17に直接転送されると38.5%のランク-1の精度が得られる。
論文 参考訳(メタデータ) (2020-12-08T08:15:30Z) - On-board Deep-learning-based Unmanned Aerial Vehicle Fault Cause
Detection and Identification [6.585891825257162]
本稿では,センサデータに基づいてドローンの誤操作を検出し,分類する新しいアーキテクチャを提案する。
提案したディープラーニングアーキテクチャを,実機でのシミュレーションと実験により検証する。
我々のソリューションは90%以上の精度で検出でき、様々な種類のドローンの誤動作を分類できる。
論文 参考訳(メタデータ) (2020-04-03T22:46:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。