論文の概要: Ultralytics YOLO Evolution: An Overview of YOLO26, YOLO11, YOLOv8 and YOLOv5 Object Detectors for Computer Vision and Pattern Recognition
- arxiv url: http://arxiv.org/abs/2510.09653v2
- Date: Wed, 15 Oct 2025 16:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 13:11:49.455366
- Title: Ultralytics YOLO Evolution: An Overview of YOLO26, YOLO11, YOLOv8 and YOLOv5 Object Detectors for Computer Vision and Pattern Recognition
- Title(参考訳): Ultralytics YOLO Evolution: An Overview of YOLO26, YOLO11, YOLOv8 and YOLOv5 Object Detector for Computer Vision and Pattern Recognition
- Authors: Ranjan Sapkota, Manoj Karkee,
- Abstract要約: 本稿では、対象検出器のUltralytics YOLO(You Only Look Once)ファミリーについて概観する。
レビューは、最新のリリースであるYOLO26(またはYOLOv26)から始まる。
本論文は,密接なシーン制限,ハイブリッドCNN-Transformer統合,オープン語彙検出,エッジ認識トレーニングアプローチなど,課題と今後の方向性を明らかにする。
- 参考スコア(独自算出の注目度): 3.2882817259131403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comprehensive overview of the Ultralytics YOLO(You Only Look Once) family of object detectors, focusing the architectural evolution, benchmarking, deployment perspectives, and future challenges. The review begins with the most recent release, YOLO26 (or YOLOv26), which introduces key innovations including Distribution Focal Loss (DFL) removal, native NMS-free inference, Progressive Loss Balancing (ProgLoss), Small-Target-Aware Label Assignment (STAL), and the MuSGD optimizer for stable training. The progression is then traced through YOLO11, with its hybrid task assignment and efficiency-focused modules; YOLOv8, which advanced with a decoupled detection head and anchor-free predictions; and YOLOv5, which established the modular PyTorch foundation that enabled modern YOLO development. Benchmarking on the MS COCO dataset provides a detailed quantitative comparison of YOLOv5, YOLOv8, YOLO11, and YOLO26 (YOLOv26), alongside cross-comparisons with YOLOv12, YOLOv13, RT-DETR, and DEIM(DETR with Improved Matching). Metrics including precision, recall, F1 score, mean Average Precision, and inference speed are analyzed to highlight trade-offs between accuracy and efficiency. Deployment and application perspectives are further discussed, covering export formats, quantization strategies, and real-world use in robotics, agriculture, surveillance, and manufacturing. Finally, the paper identifies challenges and future directions, including dense-scene limitations, hybrid CNN-Transformer integration, open-vocabulary detection, and edge-aware training approaches. (Object Detection, YOLOv26, YOLO)
- Abstract(参考訳): 本稿では,オブジェクト検出器のUltralytics YOLO(You Only Look Once)ファミリーの概要を概観し,アーキテクチャの進化,ベンチマーク,デプロイメントの観点,今後の課題について述べる。
最新のリリースであるYOLO26(YOLOv26)から始まったレビューでは、Distributed Focal Loss(DFL)除去、ネイティブNMSのない推論、プログレッシブロスバランシング(ProgLoss)、Small-Target-Aware Label Assignment(STAL)、安定したトレーニングのためのMuSGDオプティマイザなど、重要なイノベーションが導入されている。
その後は、ハイブリッドタスクの割り当てと効率を重視したモジュール、分離された検出ヘッドとアンカーフリーの予測で進歩したYOLOv8、モダンなYOLO開発を可能にするモジュールPyTorch基盤を確立したYOLOv5を経て、YOLO11に辿り着く。
MS COCOデータセットのベンチマークでは、YOLOv5, YOLOv8, YOLO11, YOLO26(YOLOv26)とYOLOv12, YOLOv13, RT-DETR, DEIM(DETR with Improved Matching)の相互比較とともに、YOLOv5, YOLOv8, YOLO11, YOLO26(YOLOv26)の詳細な定量的比較が提供されている。
精度と効率のトレードオフを明らかにするために、精度、リコール、F1スコア、平均精度、推論速度などのメトリクスを分析する。
輸出形式、定量化戦略、ロボット工学、農業、監視、製造における実世界の利用について、展開と応用の観点をさらに議論する。
最後に、密接なシーン制限、ハイブリッドCNN-Transformer統合、オープン語彙検出、エッジ対応トレーニングアプローチなど、課題と今後の方向性を明らかにする。
(対象検出、YOLOv26、YOLO)
関連論文リスト
- YOLO26: Key Architectural Enhancements and Performance Benchmarking for Real-Time Object Detection [3.1957907449739764]
本研究は, リアルタイムオブジェクト検出のためのアーキテクチャ拡張と性能ベンチマークについて, Ultralytics YOLO26の包括的解析を行った。
2025年9月にリリースされたYOLO26は、エッジおよび低消費電力デバイスに効率性、正確性、デプロイメントの準備ができているYOLOファミリーの最新のかつ最も先進的なメンバーである。
論文 参考訳(メタデータ) (2025-09-29T17:58:04Z) - YOLO Evolution: A Comprehensive Benchmark and Architectural Review of YOLOv12, YOLO11, and Their Previous Versions [0.0]
本研究は, YOLOv3から最新のYOLOv12への包括的実験評価である。
考慮すべき課題は、さまざまなオブジェクトサイズ、多様なアスペクト比、単一クラスの小さなオブジェクトである。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。