論文の概要: YOLOMG: Vision-based Drone-to-Drone Detection with Appearance and Pixel-Level Motion Fusion
- arxiv url: http://arxiv.org/abs/2503.07115v1
- Date: Mon, 10 Mar 2025 09:44:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:47:56.606443
- Title: YOLOMG: Vision-based Drone-to-Drone Detection with Appearance and Pixel-Level Motion Fusion
- Title(参考訳): YOLOMG:外見とPixel-Levelモーションフュージョンを用いた視覚型ドローン・ドロン検出
- Authors: Hanqing Guo, Xiuxiu Lin, Shiyu Zhao,
- Abstract要約: 本稿では,複雑な環境下で小型ドローンを正確に識別する新しいエンドツーエンドフレームワークを提案する。
最初は、小さなドローンのモーション特性を捉えるために、動きの差分マップを作成する。
次に、この動き差分マップをバイモーダル融合モジュールを用いてRGB画像と組み合わせることで、ドローンの適応的な特徴学習を可能にする。
- 参考スコア(独自算出の注目度): 9.810747004677474
- License:
- Abstract: Vision-based drone-to-drone detection has attracted increasing attention due to its importance in numerous tasks such as vision-based swarming, aerial see-and-avoid, and malicious drone detection. However, existing methods often encounter failures when the background is complex or the target is tiny. This paper proposes a novel end-to-end framework that accurately identifies small drones in complex environments using motion guidance. It starts by creating a motion difference map to capture the motion characteristics of tiny drones. Next, this motion difference map is combined with an RGB image using a bimodal fusion module, allowing for adaptive feature learning of the drone. Finally, the fused feature map is processed through an enhanced backbone and detection head based on the YOLOv5 framework to achieve accurate detection results. To validate our method, we propose a new dataset, named ARD100, which comprises 100 videos (202,467 frames) covering various challenging conditions and has the smallest average object size compared with the existing drone detection datasets. Extensive experiments on the ARD100 and NPS-Drones datasets show that our proposed detector performs exceptionally well under challenging conditions and surpasses state-of-the-art algorithms across various metrics. We publicly release the codes and ARD100 dataset at https://github.com/Irisky123/YOLOMG.
- Abstract(参考訳): ビジョンベースのドローン対ドローン検出は、視覚ベースのスワーミング、空中シーアンドエイド、悪意のあるドローン検出など、多くのタスクにおいて重要であることから、注目を集めている。
しかし、既存のメソッドは、バックグラウンドが複雑であったり、ターゲットが小さかったりすると、しばしば失敗する。
本稿では,移動誘導を用いた複雑な環境下で小型ドローンを正確に識別する新しいエンドツーエンドフレームワークを提案する。
最初は、小さなドローンのモーション特性を捉えるために、動きの差分マップを作成する。
次に、この動き差分マップをバイモーダル融合モジュールを用いてRGB画像と組み合わせることで、ドローンの適応的な特徴学習を可能にする。
最後に、融合特徴マップをYOLOv5フレームワークに基づいて強化されたバックボーンと検出ヘッドを介して処理し、正確な検出結果を得る。
本手法の有効性を検証するため,本手法では,既存のドローン検出データセットと比較して,様々な課題をカバーし,平均オブジェクトサイズが最小となる100本のビデオ(202,467フレーム)からなるARD100という新しいデータセットを提案する。
ARD100とNPS-Dronesデータセットの大規模な実験により、提案した検出器は、挑戦的な条件下では極めてよく動作し、様々なメトリクスにわたって最先端のアルゴリズムを上回ります。
コードとARD100データセットをhttps://github.com/Irisky123/YOLOMG.comで公開しています。
関連論文リスト
- Drone Detection and Tracking with YOLO and a Rule-based Method [0.0]
公共空間におけるドローンの活動量の増加は、プライバシー保護と安全のために規制措置を必要とする。
検出タスクは通常、注釈付き画像データセットに基づいてトレーニングされたディープラーニングモデルによって自動化され、実行される。
本稿は、以前の研究に基づいて、すでに公開されたオープンソースデータセットを拡張します。
検出モデルは単一の画像入力に基づいており、単純なクロスコリレーションベースのトラッカーを用いて検出損失を低減し、ビデオのトラッキング性能を向上させる。
論文 参考訳(メタデータ) (2025-02-07T19:53:10Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - DroBoost: An Intelligent Score and Model Boosting Method for Drone Detection [1.2564343689544843]
ドローン検出は、画像の可視性や品質が好ましくないような、困難な物体検出タスクである。
私たちの仕事は、いくつかの改善を組み合わせることで、以前のアプローチを改善します。
提案された技術は、Drone vs. Bird Challengeで1位を獲得した。
論文 参考訳(メタデータ) (2024-06-30T20:49:56Z) - Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - C2FDrone: Coarse-to-Fine Drone-to-Drone Detection using Vision Transformer Networks [23.133250476580038]
衝突回避、敵のドローン対策、捜索救助活動など、さまざまな用途において、視覚に基づくドローンからドローンまでの検出システムは不可欠である。
ドローンの検出には、小さなオブジェクトのサイズ、歪み、リアルタイム処理要求など、ユニークな課題がある。
本稿では,視覚変換器に基づく粗大な検出手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T05:51:21Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。