論文の概要: EDNet: Edge-Optimized Small Target Detection in UAV Imagery -- Faster Context Attention, Better Feature Fusion, and Hardware Acceleration
- arxiv url: http://arxiv.org/abs/2501.05885v1
- Date: Fri, 10 Jan 2025 11:37:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:28:40.748633
- Title: EDNet: Edge-Optimized Small Target Detection in UAV Imagery -- Faster Context Attention, Better Feature Fusion, and Hardware Acceleration
- Title(参考訳): EDNet: UAVイメージにおけるエッジ最適化された小さなターゲット検出 -- コンテキストアテンションの高速化、機能融合の改善、ハードウェアアクセラレーション
- Authors: Zhifan Song, Yuan Zhang, Abd Al Rahman M. Abu Ebayyeh,
- Abstract要約: EDNetは、拡張されたYOLOv10アーキテクチャ上に構築された新しいエッジターゲット検出フレームワークである。
iPhone 12では、EDNetの変種は16から55FPSの速度で動作する。
- 参考スコア(独自算出の注目度): 5.419945081601977
- License:
- Abstract: Detecting small targets in drone imagery is challenging due to low resolution, complex backgrounds, and dynamic scenes. We propose EDNet, a novel edge-target detection framework built on an enhanced YOLOv10 architecture, optimized for real-time applications without post-processing. EDNet incorporates an XSmall detection head and a Cross Concat strategy to improve feature fusion and multi-scale context awareness for detecting tiny targets in diverse environments. Our unique C2f-FCA block employs Faster Context Attention to enhance feature extraction while reducing computational complexity. The WIoU loss function is employed for improved bounding box regression. With seven model sizes ranging from Tiny to XL, EDNet accommodates various deployment environments, enabling local real-time inference and ensuring data privacy. Notably, EDNet achieves up to a 5.6% gain in mAP@50 with significantly fewer parameters. On an iPhone 12, EDNet variants operate at speeds ranging from 16 to 55 FPS, providing a scalable and efficient solution for edge-based object detection in challenging drone imagery. The source code and pre-trained models are available at: https://github.com/zsniko/EDNet.
- Abstract(参考訳): 低解像度、複雑な背景、ダイナミックなシーンのために、ドローン画像の小さなターゲットを検出することは難しい。
拡張されたYOLOv10アーキテクチャ上に構築された新しいエッジターゲット検出フレームワークであるEDNetを提案し、後処理なしでリアルタイムアプリケーションに最適化する。
EDNetにはXSmall検出ヘッドとCross Concat戦略が組み込まれており、多様な環境における小さなターゲットを検出するための機能融合とマルチスケールコンテキスト認識を改善している。
我々のユニークなC2f-FCAブロックは、計算複雑性を減らしながら特徴抽出を強化するために、より高速なコンテキストアテンションを使用している。
WIoU損失関数は、バウンディングボックス回帰の改善に使用される。
TinyからXLまでの7つのモデルサイズを持つEDNetは、さまざまなデプロイメント環境に対応し、ローカルのリアルタイム推論を可能にし、データのプライバシを確保する。
特に、EDNetはmAP@50で最大5.6%増加し、パラメータは大幅に少ない。
iPhone 12では、EDNetの派生型が16から55FPSの速度で動作し、挑戦的なドローン画像においてエッジベースのオブジェクト検出のためのスケーラブルで効率的なソリューションを提供する。
ソースコードと事前訓練済みのモデルは、https://github.com/zsniko/EDNet.comで入手できる。
関連論文リスト
- Efficient Detection Framework Adaptation for Edge Computing: A Plug-and-play Neural Network Toolbox Enabling Edge Deployment [59.61554561979589]
エッジコンピューティングは、時間に敏感なシナリオでディープラーニングベースのオブジェクト検出をデプロイするための重要なパラダイムとして登場した。
既存のエッジ検出手法では、軽量モデルによる検出精度のバランスの難しさ、適応性の制限、現実の検証の不十分といった課題に直面している。
本稿では,汎用的なプラグイン・アンド・プレイコンポーネントを用いてエッジ環境にオブジェクト検出モデルを適用するエッジ検出ツールボックス(ED-TOOLBOX)を提案する。
論文 参考訳(メタデータ) (2024-12-24T07:28:10Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - UHNet: An Ultra-Lightweight and High-Speed Edge Detection Network [2.8579170027399137]
本稿では,超軽量エッジ検出モデル(UHNet)を提案する。
UHNetは42.3kパラメータ、166 FPS、0.79G FLOPの優れたパフォーマンス指標を備えている。
BSDS500、NYUD、BIPEDデータセットの実験結果は、UHNetが顕著なエッジ検出性能を達成することを証明している。
論文 参考訳(メタデータ) (2024-08-08T06:56:33Z) - ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - FasterX: Real-Time Object Detection Based on Edge GPUs for UAV
Applications [16.51060054575739]
我々は,エッジGPU上でのリアルタイム物体検出のためのYOLOXモデルに基づく,FasterXという新しい軽量ディープラーニングアーキテクチャを提案する。
まず,YOLOXのオリジナルヘッドを代替し,小型物体のより優れた検出を行うために,有効で軽量なPixSFヘッドを設計する。
次に、SlimFPNと呼ばれるネック層のスリム構造を開発し、精度と速度のトレードオフであるネットワークのパラメータを低減する。
論文 参考訳(メタデータ) (2022-09-07T13:52:25Z) - Lightweight Salient Object Detection in Optical Remote Sensing Images
via Feature Correlation [93.80710126516405]
本稿では,これらの問題に対処する軽量ORSI-SODソリューションであるCorrNetを提案する。
それぞれのコンポーネントのパラメータと計算を減らし、CorrNetは4.09Mのパラメータしか持たず、21.09GのFLOPで実行している。
2つの公開データセットの実験結果から、私たちの軽量なCorrNetは、26の最先端メソッドと比較して、競争力やパフォーマンスがさらに向上することが示された。
論文 参考訳(メタデータ) (2022-01-20T08:28:01Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。