論文の概要: Comprehensive Performance Evaluation of YOLOv12, YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments
- arxiv url: http://arxiv.org/abs/2407.12040v7
- Date: Tue, 25 Feb 2025 23:00:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:54:30.478441
- Title: Comprehensive Performance Evaluation of YOLOv12, YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments
- Title(参考訳): 複雑なオーチャード環境下での果実の検出と測定におけるYOLOv12, YOLO11, YOLOv10, YOLOv9, YOLOv8の総合的性能評価
- Authors: Ranjan Sapkota, Zhichao Meng, Martin Churuvija, Xiaoqiang Du, Zenghong Ma, Manoj Karkee,
- Abstract要約: 本研究は, YOLOv8, YOLOv9, YOLOv10, YOLO11( or YOLOv11) および YOLOv12 オブジェクト検出アルゴリズムの性能評価を行った。
YOLOv12lは、他の全てのYOLOモデルと比較して0.90のリコール率を記録した。
YOLOv11nは2.4msで最高速度を達成し、YOLOv8n (4.1ms)、YOLOv9 Gelan-s (11.5ms)、YOLOv10n (5.5ms)、YOLOv12nを上回った。
- 参考スコア(独自算出の注目度): 0.9565934024763958
- License:
- Abstract: This study systematically performed an extensive real-world evaluation of the performances of all configurations of YOLOv8, YOLOv9, YOLOv10, YOLO11( or YOLOv11), and YOLOv12 object detection algorithms in terms of precision, recall, mean Average Precision at 50\% Intersection over Union (mAP@50), and computational speeds including pre-processing, inference, and post-processing times immature green apple (or fruitlet) detection in commercial orchards. Additionally, this research performed and validated in-field counting of the fruitlets using an iPhone and machine vision sensors. Among the configurations, YOLOv12l recorded the highest recall rate at 0.90, compared to all other configurations of YOLO models. Likewise, YOLOv10x achieved the highest precision score of 0.908, while YOLOv9 Gelan-c attained a precision of 0.903. Analysis of mAP@0.50 revealed that YOLOv9 Gelan-base and YOLOv9 Gelan-e reached peak scores of 0.935, with YOLO11s and YOLOv12l following closely at 0.933 and 0.931, respectively. For counting validation using images captured with an iPhone 14 Pro, the YOLO11n configuration demonstrated outstanding accuracy, recording RMSE values of 4.51 for Honeycrisp, 4.59 for Cosmic Crisp, 4.83 for Scilate, and 4.96 for Scifresh; corresponding MAE values were 4.07, 3.98, 7.73, and 3.85. Similar performance trends were observed with RGB-D sensor data. Moreover, sensor-specific training on Intel Realsense data significantly enhanced model performance. YOLOv11n achieved highest inference speed of 2.4 ms, outperforming YOLOv8n (4.1 ms), YOLOv9 Gelan-s (11.5 ms), YOLOv10n (5.5 ms), and YOLOv12n (4.6 ms), underscoring its suitability for real-time object detection applications. (YOLOv12 architecture, YOLOv11 Architecture, YOLOv12 object detection, YOLOv11 object detecion, YOLOv12 segmentation)
- Abstract(参考訳): 本研究は, YOLOv8, YOLOv9, YOLOv10, YOLOv11(またはYOLOv11), YOLOv12オブジェクト検出アルゴリズムを, 精度, リコール, 平均平均平均平均精度50\%の連邦間断面積(mAP@50), および前処理, 推論, 後処理時間などの計算速度で, 全構成のYOLOv8, YOLOv9, YOLOv10, YOLOv11(またはYOLOv11), YOLOv12オブジェクト検出アルゴリズムの性能評価を行った。
さらに,本研究では,iPhoneおよびマシンビジョンセンサを用いて,果実のフィールド内計測を行い,検証した。
YOLOv12lのリコールレートは、他の全てのYOLOモデルと比較して0.90だった。
また、YOLOv10xは0.908で最高点を獲得し、YOLOv9 Gelan-cは0.903で最高点に達した。
mAP@0.50の分析の結果, YOLOv9 Gelan-base と YOLOv9 Gelan-e は 0.935 となり, YOLO11s と YOLOv12l はそれぞれ 0.933 と 0.931 に近かった。
iPhone 14 Proで撮影した画像を用いた検証では、YOLO11nの構成では、HoneycrispのRMSE値が4.51、Cosmic Crispの4.59、Scilateの4.83、Sifreshの4.96、対応するMAE値が4.07、3.98、7.73、および3.85であった。
RGB-Dセンサーデータでも同様のパフォーマンス傾向が観察された。
さらに、Intel Realsenseデータに対するセンサ固有のトレーニングにより、モデルパフォーマンスが大幅に向上した。
YOLOv11nは2.4msで最高速度を達成し、YOLOv8n (4.1ms)、YOLOv9 Gelan-s (11.5ms)、YOLOv10n (5.5ms)、YOLOv12n (4.6ms)を上回り、リアルタイムオブジェクト検出アプリケーションに適合していると評価した。
(YOLOv12アーキテクチャ、YOLOv11アーキテクチャ、YOLOv12オブジェクト検出、YOLOv11オブジェクトデテシオン、YOLOv12セグメンテーション)
関連論文リスト
- YOLOv12: Attention-Centric Real-Time Object Detectors [38.507511985479006]
本稿では,従来のCNNをベースとしたYOLOフレームワークであるYOLOv12を提案する。
YOLOv12は、競合速度の精度で、一般的なリアルタイムオブジェクト検出器を全て上回っている。
論文 参考訳(メタデータ) (2025-02-18T04:20:14Z) - Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Comparing YOLOv11 and YOLOv8 for instance segmentation of occluded and non-occluded immature green fruits in complex orchard environment [0.4143603294943439]
YOLO11n-セグはすべてのカテゴリーで最高のマスク精度を達成し、スコアは0.831であった。
YOLO11m-seg と YOLO11l-seg は非閉塞および閉塞のフルーツレットセグメンテーションに優れていた。
YOLO11m-segは、ボックスとマスクのセグメンテーションで最高スコアを記録した。
論文 参考訳(メタデータ) (2024-10-24T00:12:20Z) - YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11(またはYOLOv11)オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - YOLO11 to Its Genesis: A Decadal and Comprehensive Review of The You Only Look Once (YOLO) Series [6.751138557596013]
本稿では,YOLOv1からYOLOv11へのオブジェクト検出アルゴリズムの進歩を体系的に検討する。
この進化は、今後10年間、YOLOとマルチモーダル、コンテキスト認識、人工知能(AGI)システムを統合するための道のりを示している。
論文 参考訳(メタデータ) (2024-06-12T06:41:23Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - YOLOv6 v3.0: A Full-Scale Reloading [9.348857966505111]
ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
論文 参考訳(メタデータ) (2023-01-13T14:46:46Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。