論文の概要: DAONet-YOLOv8: An Occlusion-Aware Dual-Attention Network for Tea Leaf Pest and Disease Detection
- arxiv url: http://arxiv.org/abs/2511.23222v1
- Date: Fri, 28 Nov 2025 14:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.929502
- Title: DAONet-YOLOv8: An Occlusion-Aware Dual-Attention Network for Tea Leaf Pest and Disease Detection
- Title(参考訳): DAONet-YOLOv8:茶葉害虫と疾患検出のための排除型デュアルアテンションネットワーク
- Authors: Yefeng Wu, Shan Wan, Ling Wu, Yecheng Zhao,
- Abstract要約: 本報告では,茶葉害虫や病原体を正確に検出するための3つの改良点を有するYOLOv8変異体を提案する。
既存のNet-YOLOv8は92.97%の精度、92.80%のリコール、97.10%のmAP@50、76.90%のmAP@50:95を達成し、YOLOv8nベースラインをそれぞれ2.34、4.68、1.40、および1.80ポイント上回っている。
- 参考スコア(独自算出の注目度): 2.661320179262946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate detection of tea leaf pests and diseases in real plantations remains challenging due to complex backgrounds, variable illumination, and frequent occlusions among dense branches and leaves. Existing detectors often suffer from missed detections and false positives in such scenarios. To address these issues, we propose DAONet-YOLOv8, an enhanced YOLOv8 variant with three key improvements: (1) a Dual-Attention Fusion Module (DAFM) that combines convolutional local feature extraction with self-attention based global context modeling to focus on subtle lesion regions while suppressing background noise; (2) an occlusion-aware detection head (Detect-OAHead) that learns the relationship between visible and occluded parts to compensate for missing lesion features; and (3) a C2f-DSConv module employing dynamic synthesis convolutions with multiple kernel shapes to better capture irregular lesion boundaries. Experiments on our real-world tea plantation dataset containing six pest and disease categories demonstrate that DAONet-YOLOv8 achieves 92.97% precision, 92.80% recall, 97.10% mAP@50 and 76.90% mAP@50:95, outperforming the YOLOv8n baseline by 2.34, 4.68, 1.40 and 1.80 percentage points respectively, while reducing parameters by 16.7%. Comparative experiments further confirm that DAONet-YOLOv8 achieves superior performance over mainstream detection models.
- Abstract(参考訳): 実植林における茶葉害虫や病気の正確な検出は, 複雑な背景, 多様な照明, 密集した枝や葉の密接な閉塞が原因で, いまだに困難である。
既存の検出器は、そのようなシナリオで見落とされた検出や偽陽性に悩まされることが多い。
これらの課題に対処するため, DAONet-YOLOv8 は拡張された YOLOv8 の3つの改良点を備える。(1) 畳み込み局所特徴抽出と自己アテンションに基づくグローバルコンテキストモデリングを組み合わせることで, 背景雑音を抑えながら微妙な病変領域に焦点を合わせる, (3) 目に見える部分と隠蔽部分の関係を学習するオクルージョン認識検出ヘッド (Detect-OAHead) , (3) 複数カーネル形状の動的合成畳み込みを利用した C2f-DSConv モジュール。
6つの害虫と病気のカテゴリを含む実世界の茶プランテーションデータセットの実験により、DAONet-YOLOv8は92.97%の精度、92.80%のリコール、97.10%のmAP@50、76.90%のmAP@50:95を達成し、それぞれ2.34, 4.68, 1.40, 1.80のパラメータを16.7%削減した。
比較実験により、DAONet-YOLOv8は主流検出モデルよりも優れた性能を発揮することが確認された。
関連論文リスト
- Validating Vision Transformers for Otoscopy: Performance and Data-Leakage Effects [42.465094107111646]
本研究では、耳疾患の診断精度を高めるために、視覚トランスモデル、特にスウィントランスモデルの有効性を評価する。
この研究はチリ大学臨床病院の耳鼻咽喉科の実際のデータセットを利用した。
論文 参考訳(メタデータ) (2025-11-06T23:20:37Z) - An Explainable Hybrid AI Framework for Enhanced Tuberculosis and Symptom Detection [55.35661671061754]
結核は、特に資源に制限された遠隔地において、重要な世界的な健康問題である。
本稿では, 胸部X線による疾患および症状の検出を, 2つの頭部と自己監督頭部を統合することで促進する枠組みを提案する。
本モデルでは, 新型コロナウイルス, 結核, 正常症例の鑑別で98.85%の精度が得られ, マルチラベル症状検出では90.09%のマクロF1スコアが得られた。
論文 参考訳(メタデータ) (2025-10-21T17:18:55Z) - ShortcutBreaker: Low-Rank Noisy Bottleneck with Global Perturbation Attention for Multi-Class Unsupervised Anomaly Detection [59.89803740308262]
ShortcutBreakerはMUADタスクのための新しい統合された機能再構成フレームワークである。
ショートカットの問題に対処する2つの重要なイノベーションが特徴だ。
提案手法は,4つのデータセットに対して,99.8%,98.9%,90.6%,87.8%の顕著な画像レベルのAUROCを実現する。
論文 参考訳(メタデータ) (2025-10-21T06:51:30Z) - YOLOv11-Litchi: Efficient Litchi Fruit Detection based on UAV-Captured Agricultural Imagery in Complex Orchard Environments [6.862722449907841]
本稿では,UAVを用いたリッチ検出のための軽量で堅牢な検出モデルであるYOLOv11-Litchiを紹介する。
YOLOv11-Litchiのパラメータサイズは6.35MBで、YOLOv11ベースラインよりも32.5%小さい。
このモデルは57.2FPSのフレームレートを実現し、リアルタイム検出要求を満たす。
論文 参考訳(メタデータ) (2025-10-11T09:44:00Z) - YOLO Ensemble for UAV-based Multispectral Defect Detection in Wind Turbine Components [12.174346896225153]
高度センサーを搭載した無人航空機(UAV)は、風力発電プラントを監視する新たな機会を開いた。
信頼性のある欠陥検出には、高解像度のデータと、マルチスペクトル画像を処理する効率的な方法が必要である。
我々は、可視チャネルとサーマルチャネルの両方を統合した、YOLOに基づくディープラーニングモデルのアンサンブルを開発する。
論文 参考訳(メタデータ) (2025-09-04T12:32:04Z) - Ensemble YOLO Framework for Multi-Domain Mitotic Figure Detection in Histopathology Images [0.7541656202645494]
YOLOv5とYOLOv8の2つの近代的な1段検出器は、MIDOG++、CMC、CCMCTデータセットで訓練された。
YOLOv5は高い精度(84.3%)を達成し、YOLOv8は改善されたリコール(82.6%)を提供した。
我々のアンサンブルは、F1スコア79.2%、精度73.6%、リコール85.8%で5位にランクされ、提案された戦略が未確認のテストデータに対して効果的に一般化されていることを確認した。
論文 参考訳(メタデータ) (2025-09-03T02:43:02Z) - C2PSA-Enhanced YOLOv11 Architecture: A Novel Approach for Small Target Detection in Cotton Disease Diagnosis [3.092042419611666]
本研究は,綿病検出におけるYOLOv11の深層学習に基づく最適化について述べる。
移動配置システムにより,農業分野におけるリアルタイムの病害モニタリングと精密処理が可能となる。
論文 参考訳(メタデータ) (2025-08-17T03:28:02Z) - Research on Improving the High Precision and Lightweight Diabetic Retinopathy Detection of YOLOv8n [0.0]
糖尿病網膜症の早期発見と診断は、現在眼科に焦点を絞っている研究の1つである。
これらの課題に対処するため,YOLO-KFGと呼ばれる改良型YOLOv8nに基づく軽量かつ高精度な検出モデルを提案する。
YOLOv5nやYOLOv10nのような単一ステージの主流アルゴリズムと比較して、YOLO-KFGは検出精度と効率の両方において大きな利点を示す。
論文 参考訳(メタデータ) (2025-07-01T14:19:08Z) - Urinary Tract Infection Detection in Digital Remote Monitoring: Strategies for Managing Participant-Specific Prediction Complexity [43.108040967674185]
尿路感染症(UTIs)は特に認知症(PLWD)の患者にとって重要な健康上の問題である
この研究は、PLWDのUTIを検出する機械学習(ML)を利用した以前の研究に基づいている。
論文 参考訳(メタデータ) (2025-02-18T12:01:55Z) - CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - A Multi-Stage model based on YOLOv3 for defect detection in PV panels
based on IR and Visible Imaging by Unmanned Aerial Vehicle [65.99880594435643]
本研究では,無人航空機が捉えた空中画像のパネル欠陥を検出するための新しいモデルを提案する。
このモデルは、パネルと欠陥の検出を組み合わせることで、精度を向上する。
提案モデルはイタリア南部の2つの大きなPVプラントで検証されている。
論文 参考訳(メタデータ) (2021-11-23T08:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。