論文の概要: An Improved YOLOv8 Approach for Small Target Detection of Rice Spikelet Flowering in Field Environments
- arxiv url: http://arxiv.org/abs/2507.20506v1
- Date: Mon, 28 Jul 2025 04:01:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.785042
- Title: An Improved YOLOv8 Approach for Small Target Detection of Rice Spikelet Flowering in Field Environments
- Title(参考訳): 改良型YOLOv8による水稲スパイクレット開花小ターゲット検出
- Authors: Beizhang Chen, Jinming Liang, Zheng Xiong, Ming Pan, Xiangbao Meng, Qingshan Lin, Qun Ma, Yingping Zhao,
- Abstract要約: そこで本研究では,改良型YOLOv8オブジェクト検出モデルに基づく水稲の穂花認識手法を提案する。
BiFPNは、オリジナルのPANet構造を置き換えることで、機能融合を強化し、マルチスケールの機能利用を改善する。
フィールド条件下でのコメ開花のデータセットが公開されていないため、高解像度のRGBカメラとデータ拡張技術が用いられている。
- 参考スコア(独自算出の注目度): 1.0288898584996287
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurately detecting rice flowering time is crucial for timely pollination in hybrid rice seed production. This not only enhances pollination efficiency but also ensures higher yields. However, due to the complexity of field environments and the characteristics of rice spikelets, such as their small size and short flowering period, automated and precise recognition remains challenging. To address this, this study proposes a rice spikelet flowering recognition method based on an improved YOLOv8 object detection model. First, a Bidirectional Feature Pyramid Network (BiFPN) replaces the original PANet structure to enhance feature fusion and improve multi-scale feature utilization. Second, to boost small object detection, a p2 small-object detection head is added, using finer feature mapping to reduce feature loss commonly seen in detecting small targets. Given the lack of publicly available datasets for rice spikelet flowering in field conditions, a high-resolution RGB camera and data augmentation techniques are used to construct a dedicated dataset, providing reliable support for model training and testing. Experimental results show that the improved YOLOv8s-p2 model achieves an mAP@0.5 of 65.9%, precision of 67.6%, recall of 61.5%, and F1-score of 64.41%, representing improvements of 3.10%, 8.40%, 10.80%, and 9.79%, respectively, over the baseline YOLOv8. The model also runs at 69 f/s on the test set, meeting practical application requirements. Overall, the improved YOLOv8s-p2 offers high accuracy and speed, providing an effective solution for automated monitoring in hybrid rice seed production.
- Abstract(参考訳): イネの開花時期の正確な検出は、雑種種子生産におけるタイムリーな受粉に不可欠である。
これは受粉効率を高めるだけでなく、高い収量を確保する。
しかし, 畑環境の複雑化や, 小型化や開花期間の短さなど水稲の穂の特色から, 自動的かつ正確な認識が困難である。
そこで本研究では,改良型YOLOv8オブジェクト検出モデルに基づく水稲の穂花認識手法を提案する。
まず、Bidirectional Feature Pyramid Network (BiFPN) が元のPANet構造を置き換え、機能融合を強化し、マルチスケール機能利用を改善する。
第二に、小対象検出を促進するため、小目標検出によく見られる特徴損失を低減するために、より微細な特徴マッピングを用いて、p2小対象検出ヘッドを追加する。
フィールド条件下でのコメの開花のための公開データセットの欠如を踏まえ、高解像度のRGBカメラとデータ拡張技術を使用して専用のデータセットを構築し、モデルのトレーニングとテストの信頼性を提供する。
実験の結果、改良されたYOLOv8s-p2モデルでは、65.9%のmAP@0.5、67.6%の精度、61.5%のリコール、64.41%のF1スコア、それぞれ3.10%、8.40%、10.80%、9.79%の改善が達成された。
モデルはテストセット上で69 f/sで実行され、実用的なアプリケーション要件を満たす。
改良されたYOLOv8s-p2は、高い精度とスピードを提供し、ハイブリット種子生産における自動モニタリングの効果的なソリューションを提供する。
関連論文リスト
- IPENS:Interactive Unsupervised Framework for Rapid Plant Phenotyping Extraction via NeRF-SAM2 Fusion [7.103482669612749]
IPENSは、教師なしマルチターゲットポイントクラウド抽出手法である。
粒度セグメンテーション精度(mIoU)は63.72%である。
また、コムギデータセットのセグメンテーション精度を89.68%(mIoU)に改善する。
論文 参考訳(メタデータ) (2025-05-19T18:13:09Z) - YOLO-RS: Remote Sensing Enhanced Crop Detection Methods [0.32985979395737786]
既存のターゲット検出手法は、リモートセンシング画像において、小さなターゲットを扱う際の性能が劣っている。
YOLO-RSは、小さなターゲットの検出を大幅に強化した最新のYolov11に基づいている。
リモートセンシング画像における小目標検出作業におけるYOLO-RSの有効性と適用可能性を検証する実験を行った。
論文 参考訳(メタデータ) (2025-04-15T13:13:22Z) - YOLO-LLTS: Real-Time Low-Light Traffic Sign Detection via Prior-Guided Enhancement and Multi-Branch Feature Interaction [45.79993863157494]
YOLO-LLTSは、低照度環境向けに設計されたエンドツーエンドのリアルタイム信号検出アルゴリズムである。
YOLO-LLTSは、HRFM-SOD(High-Resolution Feature Map for Small Object Detection)、MFIA(Multi-branch Feature Interaction Attention)、PGFE(Presideed-Guided Feature Enhancement Module)の3つの主要なコントリビューションを紹介している。
実験の結果、YOLO-LLTSは最新技術の性能を達成し、TT100K-nightでは2.7% mAP50:95と1.6% mAP50:95よりも優れていた。
論文 参考訳(メタデータ) (2025-03-18T04:28:05Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - Industrial Anomaly Detection and Localization Using Weakly-Supervised Residual Transformers [44.344548601242444]
Weakly-supervised RESidual Transformer (WeakREST) という新しいフレームワークを導入し,高い異常検出精度を実現する。
画素単位の異常局所化タスクをブロック単位の分類問題に再構成する。
弱いラベルと残差に基づく表現との相互作用を処理できるResMixMatchアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-06T08:19:30Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Hessian-Aware Pruning and Optimal Neural Implant [74.3282611517773]
プルーニングは、ニューラルネットワークモデルに関連するメモリフットプリントとフラップを減らす効果的な方法である。
構造的プルーニングの指標として2次感度を用いたニューラルインプラントアプローチと組み合わされた新しいヘッセン認識プルーニング法を提案する。
論文 参考訳(メタデータ) (2021-01-22T04:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。