論文の概要: YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments
- arxiv url: http://arxiv.org/abs/2510.10141v1
- Date: Sat, 11 Oct 2025 09:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.806276
- Title: YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments
- Title(参考訳): YOLOv11-Litchi: 複雑な果樹環境下でのUAVキャプチャ農業画像に基づく効率的なリッチ果実検出
- Authors: Hongxing Peng, Haopei Xie, Weijia Lia, Huanai Liuc, Ximing Li,
- Abstract要約: 本稿では,UAVを用いたリッチ検出のための軽量で堅牢な検出モデルであるYOLOv11-Litchiを紹介する。
YOLOv11-Litchiのパラメータサイズは6.35MBで、YOLOv11ベースラインよりも32.5%小さい。
このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
- 参考スコア(独自算出の注目度): 6.862722449907841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Litchi is a high-value fruit, yet traditional manual selection methods are increasingly inadequate for modern production demands. Integrating UAV-based aerial imagery with deep learning offers a promising solution to enhance efficiency and reduce costs. This paper introduces YOLOv11-Litchi, a lightweight and robust detection model specifically designed for UAV-based litchi detection. Built upon the YOLOv11 framework, the proposed model addresses key challenges such as small target size, large model parameters hindering deployment, and frequent target occlusion. To tackle these issues, three major innovations are incorporated: a multi-scale residual module to improve contextual feature extraction across scales, a lightweight feature fusion method to reduce model size and computational costs while maintaining high accuracy, and a litchi occlusion detection head to mitigate occlusion effects by emphasizing target regions and suppressing background interference. Experimental results validate the model's effectiveness. YOLOv11-Litchi achieves a parameter size of 6.35 MB - 32.5% smaller than the YOLOv11 baseline - while improving mAP by 2.5% to 90.1% and F1-Score by 1.4% to 85.5%. Additionally, the model achieves a frame rate of 57.2 FPS, meeting real-time detection requirements. These findings demonstrate the suitability of YOLOv11-Litchi for UAV-based litchi detection in complex orchard environments, showcasing its potential for broader applications in precision agriculture.
- Abstract(参考訳): リッチは高価値の果実であるが、伝統的な手作業による選別法は現代の生産需要には不適当である。
UAVベースの空中画像とディープラーニングを統合することで、効率を高めコストを削減できる有望なソリューションを提供する。
本稿では,UAVを用いたリッチ検出に特化して設計された軽量でロバストな検出モデルYOLOv11-Litchiを紹介する。
YOLOv11フレームワークに基づいて構築された提案モデルは、小さなターゲットサイズ、デプロイメントを妨げる大きなモデルパラメータ、頻繁なターゲット閉塞といった重要な課題に対処する。
これらの課題に対処するため、3つの主要なイノベーションが組み込まれている: スケールにわたるコンテキスト的特徴抽出を改善するマルチスケールの残留モジュール、高精度を維持しながらモデルサイズと計算コストを削減する軽量な特徴融合法、ターゲット領域を強調し、背景干渉を抑制することによって閉塞効果を軽減するリッチ閉塞検出ヘッド。
実験結果はモデルの有効性を検証した。
YOLOv11-Litchiはパラメータサイズが6.35MB(YOLOv11ベースラインより32.5%小さい)で、mAPを2.5%から90.1%、F1-Scoreを1.4%から85.5%改善している。
さらに、このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
以上の結果から, 複雑な果樹園環境において, YOLOv11-LitchiがUAVを用いたリッチ検出に有効であることが示唆された。
関連論文リスト
- An Improved YOLOv8 Approach for Small Target Detection of Rice Spikelet Flowering in Field Environments [1.0288898584996287]
そこで本研究では,改良型YOLOv8オブジェクト検出モデルに基づく水稲の穂花認識手法を提案する。
BiFPNは、オリジナルのPANet構造を置き換えることで、機能融合を強化し、マルチスケールの機能利用を改善する。
フィールド条件下でのコメ開花のデータセットが公開されていないため、高解像度のRGBカメラとデータ拡張技術が用いられている。
論文 参考訳(メタデータ) (2025-07-28T04:01:29Z) - SOD-YOLO: Enhancing YOLO-Based Detection of Small Objects in UAV Imagery [5.639904484784127]
実験結果から,SOD-YOLOは検出性能を著しく向上することが示された。
SOD-YOLOは、UAV画像における小さな物体検出のための実用的で効率的なソリューションである。
論文 参考訳(メタデータ) (2025-07-17T02:04:54Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - MASF-YOLO: An Improved YOLOv11 Network for Small Object Detection on Drone View [0.0]
マルチスケールコンテキストアグリゲーションとスケール適応型フュージョンYOLO(MASF-YOLO)を提案する。
UAV画像における小物体検出の難しさに対処するため,小型物体の検出精度を大幅に向上させるMFAM(Multi-scale Feature Aggregation Module)を設計した。
第3に,マルチスケール機能融合機能を強化したDASI(Dimension-Aware Selective Integration Module)を導入する。
論文 参考訳(メタデータ) (2025-04-25T07:43:33Z) - YOLO-RS: Remote Sensing Enhanced Crop Detection Methods [0.32985979395737786]
既存のターゲット検出手法は、リモートセンシング画像において、小さなターゲットを扱う際の性能が劣っている。
YOLO-RSは、小さなターゲットの検出を大幅に強化した最新のYolov11に基づいている。
リモートセンシング画像における小目標検出作業におけるYOLO-RSの有効性と適用可能性を検証する実験を行った。
論文 参考訳(メタデータ) (2025-04-15T13:13:22Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
YOLO-LLTSは、HRFM-SOD(High-Resolution Feature Map for Small Object Detection)、MFIA(Multi-branch Feature Interaction Attention)、PGFE(Presideed-Guided Feature Enhancement Module)の3つの主要なコントリビューションを紹介している。
実験の結果、YOLO-LLTSは最新技術の性能を達成し、TT100K-nightでは2.7% mAP50:95と1.6% mAP50:95よりも優れていた。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - A Light Perspective for 3D Object Detection [46.23578780480946]
本稿では,最先端のDeep Learning技術を特徴抽出に取り入れた新しい手法を提案する。
私たちのモデルであるNextBEVは、ResNet50やMobileNetV3といった既存の機能抽出ツールを超えています。
これらの軽量な提案を融合することにより、VoxelNetベースのモデルの精度を2.93%向上し、PointPillarベースのモデルのF1スコアを約20%改善しました。
論文 参考訳(メタデータ) (2025-03-10T10:03:23Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。