論文の概要: Performance Optimization of YOLO-FEDER FusionNet for Robust Drone Detection in Visually Complex Environments
- arxiv url: http://arxiv.org/abs/2509.14012v1
- Date: Wed, 17 Sep 2025 14:21:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.866634
- Title: Performance Optimization of YOLO-FEDER FusionNet for Robust Drone Detection in Visually Complex Environments
- Title(参考訳): 視覚複合環境におけるロバストドローン検出のためのYOLO-FEDER FusionNetの性能最適化
- Authors: Tamara R. Lenhard, Andreas Weinmann, Tobias Koch,
- Abstract要約: 視覚的に複雑な環境でのドローン検出は、背景のぼやけ、小さな物体スケール、カモフラージュ効果のために困難である。
この研究は、汎用オブジェクト検出とカモフラージュオブジェクト検出技術を統合する、YOLO-FEDER FusionNetの強化されたイテレーションを示す。
- 参考スコア(独自算出の注目度): 0.981328290471248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drone detection in visually complex environments remains challenging due to background clutter, small object scale, and camouflage effects. While generic object detectors like YOLO exhibit strong performance in low-texture scenes, their effectiveness degrades in cluttered environments with low object-background separability. To address these limitations, this work presents an enhanced iteration of YOLO-FEDER FusionNet -- a detection framework that integrates generic object detection with camouflage object detection techniques. Building upon the original architecture, the proposed iteration introduces systematic advancements in training data composition, feature fusion strategies, and backbone design. Specifically, the training process leverages large-scale, photo-realistic synthetic data, complemented by a small set of real-world samples, to enhance robustness under visually complex conditions. The contribution of intermediate multi-scale FEDER features is systematically evaluated, and detection performance is comprehensively benchmarked across multiple YOLO-based backbone configurations. Empirical results indicate that integrating intermediate FEDER features, in combination with backbone upgrades, contributes to notable performance improvements. In the most promising configuration -- YOLO-FEDER FusionNet with a YOLOv8l backbone and FEDER features derived from the DWD module -- these enhancements lead to a FNR reduction of up to 39.1 percentage points and a mAP increase of up to 62.8 percentage points at an IoU threshold of 0.5, compared to the initial baseline.
- Abstract(参考訳): 視覚的に複雑な環境でのドローン検出は、背景のぼやけ、小さな物体スケール、カモフラージュ効果のために依然として困難である。
YOLOのようなジェネリックオブジェクト検出器は、低テクスチャシーンでは強い性能を示すが、その効果は、低オブジェクト背景分離性を持つ散在環境において低下する。
これらの制限に対処するため、この研究はYOLO-FEDER FusionNetの強化されたイテレーションを提示している。
オリジナルのアーキテクチャに基づいて、提案されたイテレーションでは、トレーニングデータ構成の体系的な進歩、機能融合戦略、バックボーン設計が導入されている。
具体的には、トレーニングプロセスは、視覚的に複雑な条件下での堅牢性を高めるために、少数の実世界のサンプルによって補完される大規模な写真リアリスティック合成データを活用する。
中間的マルチスケールFEDER機能のコントリビューションを体系的に評価し、検出性能を複数のYOLOベースのバックボーン構成で総合的にベンチマークする。
実証的な結果は、中間のFEDER機能の統合とバックボーンのアップグレードが、注目すべきパフォーマンス改善に寄与していることを示している。
最も有望な構成 -- YOLO-FEDER FusionNet - YOLOv8lバックボーンとDWDモジュールから派生したFEDER機能 -- では、これらの拡張により、FNRの最大39.1ポイント、mAPの最大62.8ポイントが、IoU閾値0.5で、最初のベースラインよりも向上した。
関連論文リスト
- YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - MGDFIS: Multi-scale Global-detail Feature Integration Strategy for Small Object Detection [12.838872442435527]
UAV画像の小さな物体検出は、探索・救助、交通監視、環境監視といった用途に不可欠である。
既存のマルチスケール融合法は、計算負荷を増し、詳細をぼかすのに役立つ。
本稿では,グローバルコンテキストと局所的な詳細を密結合して検出性能を向上させる統合融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T02:54:25Z) - YOLO-SPCI: Enhancing Remote Sensing Object Detection via Selective-Perspective-Class Integration [1.2815904071470707]
YOLO-S PCIは、軽量なSelective-Perspective-Class Integrationモジュールを導入した注目度の高い検出フレームワークである。
YOLO-S PCIは最先端検出器と比較して優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-05-27T16:00:34Z) - Efficient Feature Fusion for UAV Object Detection [9.632727117779178]
特に小さな物体は画像のごく一部を占めており、正確な検出を困難にしている。
既存のマルチスケール機能融合手法は、様々な解像度で機能を集約することでこれらの課題に対処する。
本稿では,UAVオブジェクト検出タスクに特化して設計された新しい機能融合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-29T20:39:16Z) - What is YOLOv9: An In-Depth Exploration of the Internal Features of the Next-Generation Object Detector [0.0]
本研究は, YOLOv9オブジェクト検出モデルに焦点をあて, アーキテクチャの革新, トレーニング方法論, 性能改善に焦点をあてる。
汎用高効率層集約ネットワークGELANやProgrammable Gradient Information PGIといった重要な進歩は、特徴抽出と勾配流を著しく向上させる。
本稿では, YOLOv9の内部特徴とその実世界の応用性について, リアルタイム物体検出の最先端技術として確立した。
論文 参考訳(メタデータ) (2024-09-12T07:46:58Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - EDN: Salient Object Detection via Extremely-Downsampled Network [66.38046176176017]
画像全体のグローバルビューを効果的に学ぶために、極端なダウンサンプリング技術を使用するExtremely-Downsampled Network(EDN)を紹介します。
実験は、ednがリアルタイム速度でsart性能を達成することを実証する。
論文 参考訳(メタデータ) (2020-12-24T04:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。