論文の概要: Improved YOLOv12 with LLM-Generated Synthetic Data for Enhanced Apple Detection and Benchmarking Against YOLOv11 and YOLOv10
- arxiv url: http://arxiv.org/abs/2503.00057v1
- Date: Wed, 26 Feb 2025 20:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:24:56.618419
- Title: Improved YOLOv12 with LLM-Generated Synthetic Data for Enhanced Apple Detection and Benchmarking Against YOLOv11 and YOLOv10
- Title(参考訳): YOLOv11およびYOLOv10に対するApple検出およびベンチマーク強化のためのLCM生成合成データによるYOLOv12の改善
- Authors: Ranjan Sapkota, Manoj Karkee,
- Abstract要約: YOLOv12nの構成は、0.916で最高精度、0.969で最高リコール、0.978で最高平均平均精度(mAP@50)を達成した。
YOLOv12はYOLOv11やYOLOv10より新しいが、YOLOv11nはYOLOv10、YOLOv11、YOLOv12の中では最速のYOLOアルゴリズムである。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License:
- Abstract: This study evaluated the performance of the YOLOv12 object detection model, and compared against YOLOv11 and YOLOv10 for apple detection in commercial orchards using synthetic images generated by Large Language Models (LLMs). The YOLOv12n configuration excelled, achieving the highest precision at 0.916, the highest recall at 0.969, and the highest mean Average Precision (mAP@50) at 0.978. In comparison, the YOLOv11 series was led by YOLO11x, which recorded the highest precision at 0.857, recall at 0.85, and mAP@50 at 0.91. For the YOLOv10 series, YOLOv10b and YOLOv10l tied for the highest precision at 0.85, with YOLOv10n achieving the highest recall at 0.8 and mAP@50 at 0.89. The study also highlighted efficiency in processing speeds, where YOLOv11n reported the lowest inference time at 4.7 ms, compared to YOLOv12n's 5.6 ms and YOLOv10n's 5.9 ms. Although YOLOv12 is new in more accurate than YOLOv11, and YOLOv10, the YOLO11n still stays the fastest YOLO algorithm among YOLOv10, YOLOv11 and YOLOv12. These findings demonstrated that YOLOv12, when trained on high-quality LLM-generated datasets, not only surpassed its predecessors in key performance metrics but also offered a cost-effective solution by reducing the need for extensive manual data collection in the field.
- Abstract(参考訳): 本研究では, YOLOv12オブジェクト検出モデルの性能を評価し, LLM(Large Language Models)によって生成された合成画像を用いて, 商業用果樹園のリンゴ検出におけるYOLOv11およびYOLOv10と比較した。
YOLOv12nの構成は、0.916で最高精度、0.969で最高リコール、0.978で最高平均平均精度(mAP@50)を達成した。
一方、YOLOv11シリーズはYOLO11xが率い、精度は0.857、リコールは0.85、mAP@50は0.91だった。
YOLOv10シリーズでは、YOLOv10bとYOLOv10lが0.85で、YOLOv10nは0.8で、mAP@50は89で最高リコールを達成した。
YOLOv12nはYOLOv11より新しいが、YOLOv10はYOLOv10、YOLOv11、YOLOv12の中では最速のYOLOアルゴリズムである。
これらの結果から, YOLOv12は, 高品質なLLM生成データセットでトレーニングされた場合, 主要なパフォーマンス指標において, 従来のものを上回るだけでなく, 現場での広範囲な手動データ収集の必要性を低減して, 費用対効果の高いソリューションを提供することがわかった。
関連論文リスト
- YOLOv12: Attention-Centric Real-Time Object Detectors [38.507511985479006]
本稿では,従来のCNNをベースとしたYOLOフレームワークであるYOLOv12を提案する。
YOLOv12は、競合速度の精度で、一般的なリアルタイムオブジェクト検出器を全て上回っている。
論文 参考訳(メタデータ) (2025-02-18T04:20:14Z) - YOLO Evolution: A Comprehensive Benchmark and Architectural Review of YOLOv12, YOLO11, and Their Previous Versions [0.0]
本研究は, YOLOv3から最新のYOLOv12への包括的実験評価である。
考慮すべき課題は、さまざまなオブジェクトサイズ、多様なアスペクト比、単一クラスの小さなオブジェクトである。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Comparing YOLOv11 and YOLOv8 for instance segmentation of occluded and non-occluded immature green fruits in complex orchard environment [0.4143603294943439]
YOLO11n-セグはすべてのカテゴリーで最高のマスク精度を達成し、スコアは0.831であった。
YOLO11m-seg と YOLO11l-seg は非閉塞および閉塞のフルーツレットセグメンテーションに優れていた。
YOLO11m-segは、ボックスとマスクのセグメンテーションで最高スコアを記録した。
論文 参考訳(メタデータ) (2024-10-24T00:12:20Z) - YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11(またはYOLOv11)オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - Comprehensive Performance Evaluation of YOLOv12, YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments [0.9565934024763958]
本研究は, YOLOv8, YOLOv9, YOLOv10, YOLO11( or YOLOv11) および YOLOv12 オブジェクト検出アルゴリズムの性能評価を行った。
YOLOv12lは、他の全てのYOLOモデルと比較して0.90のリコール率を記録した。
YOLOv11nは2.4msで最高速度を達成し、YOLOv8n (4.1ms)、YOLOv9 Gelan-s (11.5ms)、YOLOv10n (5.5ms)、YOLOv12nを上回った。
論文 参考訳(メタデータ) (2024-07-01T17:59:55Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - High-Performance Fine Defect Detection in Artificial Leather Using Dual Feature Pool Object Detection [40.14938518877818]
人工皮革の微細欠陥の特徴から, DFP, IFF, AMP, EOSの4つの革新的な構造が設計された。
これらの進歩により、YOLODという高性能な人工皮革微細欠陥検出モデルが提案された。
YOLODは人工皮革欠陥データセットに優れた性能を示し、YOLOv5と比較してAP_50の11.7%から13.5%の顕著な増加を達成した。
YOLODはまた、一般のMS-COCOデータセットでも顕著なパフォーマンスを示しており、YOLOv5と比較してAPでは0.4%から2.6%増加した。
論文 参考訳(メタデータ) (2023-07-31T15:18:54Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。