論文の概要: YOLO-Drone: An Efficient Object Detection Approach Using the GhostHead Network for Drone Images
- arxiv url: http://arxiv.org/abs/2511.10905v1
- Date: Fri, 14 Nov 2025 02:32:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.400932
- Title: YOLO-Drone: An Efficient Object Detection Approach Using the GhostHead Network for Drone Images
- Title(参考訳): YOLO-Drone:ドローン画像におけるゴーストヘッドネットワークを用いた効率的な物体検出手法
- Authors: Hyun-Ki Jung,
- Abstract要約: 本稿では,GhostHead Network と呼ばれる YOLOv11 アルゴリズムのヘッドネットワークの拡張について紹介する。
この改良を取り入れたモデルはYOLO-Droneと呼ばれている。
実験の結果, YOLO-Droneは従来のYOLOv11に比べて精度, リコール, F1-Score, mAP (0.5) などのキー検出精度を著しく向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection using images or videos captured by drones is a promising technology with significant potential across various industries. However, a major challenge is that drone images are typically taken from high altitudes, making object identification difficult. This paper proposes an effective solution to address this issue. The base model used in the experiments is YOLOv11, the latest object detection model, with a specific implementation based on YOLOv11n. The experimental data were sourced from the widely used and reliable VisDrone dataset, a standard benchmark in drone-based object detection. This paper introduces an enhancement to the Head network of the YOLOv11 algorithm, called the GhostHead Network. The model incorporating this improvement is named YOLO-Drone. Experimental results demonstrate that YOLO-Drone achieves significant improvements in key detection accuracy metrics, including Precision, Recall, F1-Score, and mAP (0.5), compared to the original YOLOv11. Specifically, the proposed model recorded a 0.4% increase in Precision, a 0.6% increase in Recall, a 0.5% increase in F1-Score, and a 0.5% increase in mAP (0.5). Additionally, the Inference Speed metric, which measures image processing speed, also showed a notable improvement. These results indicate that YOLO-Drone is a high-performance model with enhanced accuracy and speed compared to YOLOv11. To further validate its reliability, comparative experiments were conducted against other high-performance object detection models, including YOLOv8, YOLOv9, and YOLOv10. The results confirmed that the proposed model outperformed YOLOv8 by 0.1% in mAP (0.5) and surpassed YOLOv9 and YOLOv10 by 0.3% and 0.6%, respectively.
- Abstract(参考訳): ドローンが撮影した画像やビデオを使った物体検出は、様々な業界で有望な技術だ。
しかし、大きな課題は、ドローン画像が通常高高度から撮影され、物体の識別が困難になることだ。
本稿では,この問題に対する効果的な解決法を提案する。
実験で使用されるベースモデルは、最新のオブジェクト検出モデルであるYOLOv11であり、YOLOv11nに基づいた特定の実装である。
実験データは、ドローンベースのオブジェクト検出の標準ベンチマークである、広く使われ、信頼性の高いVisDroneデータセットから得られた。
本稿では,GhostHead Network と呼ばれる YOLOv11 アルゴリズムのヘッドネットワークの拡張について紹介する。
この改良を取り入れたモデルはYOLO-Droneと呼ばれている。
実験の結果, YOLO-Droneは従来のYOLOv11に比べて精度, リコール, F1-Score, mAP (0.5) などのキー検出精度を著しく向上した。
具体的には,精度0.4%,リコール0.6%,F1スコア0.5%,mAP0.5。
さらに,画像処理速度を計測する推論速度測定値も顕著に改善された。
これらの結果から,YOLO-DroneはYOLOv11に比べて精度と速度が向上した高性能モデルであることが示唆された。
さらに信頼性を検証するため、YOLOv8、YOLOv9、YOLOv10を含む他の高性能物体検出モデルとの比較実験を行った。
その結果, YOLOv8 は mAP (0.5) で0.1%, YOLOv9 では0.3%, YOLOv10 では0.6%を上回った。
関連論文リスト
- YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - Improved YOLOv12 with LLM-Generated Synthetic Data for Enhanced Apple Detection and Benchmarking Against YOLOv11 and YOLOv10 [0.4143603294943439]
YOLOv12nは0.916で最高精度、0.969で最高リコール、0.978で最高平均平均精度(mAP@50)を達成した。
この技術は、農業分野における広範な手動データ収集の必要性を減らし、コスト効率のよいソリューションも提供した。
論文 参考訳(メタデータ) (2025-02-26T20:24:01Z) - YOLO Evolution: A Comprehensive Benchmark and Architectural Review of YOLOv12, YOLO11, and Their Previous Versions [0.0]
本研究は, YOLOv3から最新のYOLOv12への包括的実験評価である。
考慮すべき課題は、さまざまなオブジェクトサイズ、多様なアスペクト比、単一クラスの小さなオブジェクトである。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。