論文の概要: Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors
- arxiv url: http://arxiv.org/abs/2411.00201v1
- Date: Thu, 31 Oct 2024 20:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:24.460068
- Title: Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors
- Title(参考訳): YOLOモデルの進化を評価する: YOLO11とその先駆体に関する総合的ベンチマーク研究
- Authors: Nidhal Jegham, Chan Young Koh, Marwan Abdelatti, Abdeltawab Hendawi,
- Abstract要約: 本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study presents a comprehensive benchmark analysis of various YOLO (You Only Look Once) algorithms, from YOLOv3 to the newest addition. It represents the first research to comprehensively evaluate the performance of YOLO11, the latest addition to the YOLO family. It evaluates their performance on three diverse datasets: Traffic Signs (with varying object sizes), African Wildlife (with diverse aspect ratios and at least one instance of the object per image), and Ships and Vessels (with small-sized objects of a single class), ensuring a comprehensive assessment across datasets with distinct challenges. To ensure a robust evaluation, we employ a comprehensive set of metrics, including Precision, Recall, Mean Average Precision (mAP), Processing Time, GFLOPs count, and Model Size. Our analysis highlights the distinctive strengths and limitations of each YOLO version. For example: YOLOv9 demonstrates substantial accuracy but struggles with detecting small objects and efficiency whereas YOLOv10 exhibits relatively lower accuracy due to architectural choices that affect its performance in overlapping object detection but excels in speed and efficiency. Additionally, the YOLO11 family consistently shows superior performance in terms of accuracy, speed, computational efficiency, and model size. YOLO11m achieved a remarkable balance of accuracy and efficiency, scoring mAP50-95 scores of 0.795, 0.81, and 0.325 on the Traffic Signs, African Wildlife, and Ships datasets, respectively, while maintaining an average inference time of 2.4ms, a model size of 38.8Mb, and around 67.6 GFLOPs on average. These results provide critical insights for both industry and academia, facilitating the selection of the most suitable YOLO algorithm for diverse applications and guiding future enhancements.
- Abstract(参考訳): 本研究は、YOLOv3から最新の追加まで、様々なYOLO(You Only Look Once)アルゴリズムの総合的なベンチマーク分析を行う。
養老家の最新増築である養老11号の性能を総合的に評価した最初の研究である。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(さまざまなアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、およびシップと容器(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットのパフォーマンスを評価し、異なる課題を持つデータセット全体の総合的なアセスメントを保証する。
堅牢な評価を保証するため、私たちは、精度、リコール、平均平均精度(mAP)、処理時間、GFLOP数、モデルサイズなど、包括的なメトリクスセットを採用しています。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
例えば、YOLOv9は相当な精度を示すが、小さなオブジェクトの検出と効率に苦しむのに対して、YOLOv10はオブジェクトの重複検出のパフォーマンスに影響を与えるが、スピードと効率が優れているアーキテクチャ上の選択により、比較的低い精度を示す。
さらに、YOLO11ファミリは精度、速度、計算効率、モデルサイズにおいて常に優れた性能を示す。
YOLO11mは精度と効率の両立を実現し、平均推定時間は2.4ms、モデルサイズ38.8Mb、平均67.6GFLOPsを維持しながら、交通標識、アフリカ野生生物、船舶のデータセットでそれぞれ0.795、0.81、0.325のmAP50-95スコアを記録した。
これらの結果は、業界と学界の両方に重要な洞察を与え、多様なアプリケーションに最適なYOLOアルゴリズムの選択と今後の拡張を導くのに役立ちます。
関連論文リスト
- YOLO11 and Vision Transformers based 3D Pose Estimation of Immature Green Fruits in Commercial Apple Orchards for Robotic Thinning [0.4143603294943439]
商業用果樹果樹における未熟リンゴ(フルーツレット)の3次元ポーズ推定法を開発した。
YOLO11オブジェクト検出とポーズ推定アルゴリズムとViT(Vision Transformers)を併用して深度推定を行う。
YOLO11nは、ボックス精度と精度の点で、YOLO11とYOLOv8のすべての構成を上回った。
論文 参考訳(メタデータ) (2024-10-21T17:00:03Z) - Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - An Informative Tracking Benchmark [133.0931262969931]
既存のデータセットと新たに収集されたデータセットの1.2Mフレームのうち7%が、小型かつ情報的追跡ベンチマーク(ITB)である。
1) 課題レベル, 2) 識別力, 3) 外観変化の密度を考慮し, 既存のベンチマークから最も有意義なシーケンスを選択する。
同一データ上で再学習した15の最先端トラッカーの結果を解析することにより,各シナリオ下でのロバストなトラッカーの効果的な手法を決定できる。
論文 参考訳(メタデータ) (2021-12-13T07:56:16Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。