論文の概要: YOLO26: A Comprehensive Architecture Overview and Key Improvements
- arxiv url: http://arxiv.org/abs/2602.14582v1
- Date: Mon, 16 Feb 2026 09:25:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.350493
- Title: YOLO26: A Comprehensive Architecture Overview and Key Improvements
- Title(参考訳): YOLO26: 全体的なアーキテクチャ概要と重要な改善
- Authors: Priyanto Hidayatullah, Refdinal Tubagus,
- Abstract要約: You Only Look Once (YOLO)は、ディープラーニングにおけるコンピュータビジョンの傑出したモデルだ。
本研究は、YOLOシリーズの最新版であるYOLO26の斬新な側面を探求する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: You Only Look Once (YOLO) has been the prominent model for computer vision in deep learning for a decade. This study explores the novel aspects of YOLO26, the most recent version in the YOLO series. The elimination of Distribution Focal Loss (DFL), implementation of End-to-End NMS-Free Inference, introduction of ProgLoss + Small-Target-Aware Label Assignment (STAL), and use of the MuSGD optimizer are the primary enhancements designed to improve inference speed, which is claimed to achieve a 43% boost in CPU mode. This is designed to allow YOLO26 to attain real-time performance on edge devices or those without GPUs. Additionally, YOLO26 offers improvements in many computer vision tasks, including instance segmentation, pose estimation, and oriented bounding box (OBB) decoding. We aim for this effort to provide more value than just consolidating information already included in the existing technical documentation. Therefore, we performed a rigorous architectural investigation into YOLO26, mostly using the source code available in its GitHub repository and its official documentation. The authentic and detailed operational mechanisms of YOLO26 are inside the source code, which is seldom extracted by others. The YOLO26 architectural diagram is shown as the outcome of the investigation. This study is, to our knowledge, the first one presenting the CNN-based YOLO26 architecture, which is the core of YOLO26. Our objective is to provide a precise architectural comprehension of YOLO26 for researchers and developers aspiring to enhance the YOLO model, ensuring it remains the leading deep learning model in computer vision.
- Abstract(参考訳): You Only Look Once (YOLO)は、ディープラーニングにおけるコンピュータビジョンの傑出したモデルだ。
本研究は、YOLOシリーズの最新版であるYOLO26の斬新な側面を探求する。
DFL(Distributed Focal Loss)の廃止、エンド・ツー・エンドのNMS-Free推論の実装、ProgLoss + Small-Target-Aware Label Assignment (STAL)の導入、そしてMuSGDオプティマイザの使用は、推論速度を改善するために設計された主要な機能拡張であり、CPUモードの43%向上を達成したと主張されている。
YOLO26はエッジデバイスやGPUのないデバイスでリアルタイムのパフォーマンスを実現するように設計されている。
さらに、YOLO26は、インスタンスセグメンテーション、ポーズ推定、オブジェクト指向バウンディングボックス(OBB)デコードなど、多くのコンピュータビジョンタスクの改善を提供する。
この取り組みは、既存の技術ドキュメントにすでに含まれている情報の統合よりも、より多くの価値を提供することを目的としています。
そのため、私たちは、GitHubリポジトリで利用可能なソースコードと公式ドキュメントを使用して、YOLO26の厳格なアーキテクチャ調査を行いました。
YOLO26の真正かつ詳細な操作機構はソースコード内にあり、他者によって抽出されることはめったにない。
調査の結果、YOLO26アーキテクチャ図が示されている。
この研究は、我々の知る限り、最初にCNNベースのYOLO26アーキテクチャを提示するものである。
我々の目標は、YOLO26の正確なアーキテクチャ的理解を提供することであり、研究者や開発者がYOLOモデルを強化し、コンピュータビジョンにおける主要なディープラーニングモデルであることを保証することである。
関連論文リスト
- Ultralytics YOLO Evolution: An Overview of YOLO26, YOLO11, YOLOv8 and YOLOv5 Object Detectors for Computer Vision and Pattern Recognition [3.2882817259131403]
本稿では、対象検出器のUltralytics YOLO(You Only Look Once)ファミリーについて概観する。
レビューは、最新のリリースであるYOLO26(またはYOLOv26)から始まる。
本論文は,密接なシーン制限,ハイブリッドCNN-Transformer統合,オープン語彙検出,エッジ認識トレーニングアプローチなど,課題と今後の方向性を明らかにする。
論文 参考訳(メタデータ) (2025-10-06T23:28:44Z) - YOLO26: Key Architectural Enhancements and Performance Benchmarking for Real-Time Object Detection [3.1957907449739764]
本研究は, リアルタイムオブジェクト検出のためのアーキテクチャ拡張と性能ベンチマークについて, Ultralytics YOLO26の包括的解析を行った。
2025年9月にリリースされたYOLO26は、エッジおよび低消費電力デバイスに効率性、正確性、デプロイメントの準備ができているYOLOファミリーの最新のかつ最も先進的なメンバーである。
論文 参考訳(メタデータ) (2025-09-29T17:58:04Z) - YOLOv8 to YOLO11: A Comprehensive Architecture In-depth Comparative Review [0.0]
本研究では,最新の4つのYOLOモデルについて,包括的かつ詳細なアーキテクチャ比較を行った。
分析の結果、YOLOの各バージョンはアーキテクチャと特徴抽出が改善されているが、特定のブロックは変更されていないことがわかった。
論文 参考訳(メタデータ) (2025-01-23T05:57:13Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。