論文の概要: YOLOv1 to YOLOv11: A Comprehensive Survey of Real-Time Object Detection Innovations and Challenges
- arxiv url: http://arxiv.org/abs/2508.02067v1
- Date: Mon, 04 Aug 2025 05:13:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.184104
- Title: YOLOv1 to YOLOv11: A Comprehensive Survey of Real-Time Object Detection Innovations and Challenges
- Title(参考訳): YOLOv1からYOLOv11: リアルタイム物体検出技術と課題の総合調査
- Authors: Manikanta Kotthapalli, Deepika Ravipati, Reshma Bhatia,
- Abstract要約: YOLO(You Only Look Once)モデルは、統合されたエンドツーエンド検出フレームワークを通じて、リアルタイム視覚アプリケーションのランドスケープを変換します。
本稿では, アーキテクチャの革新, パフォーマンスベンチマーク, 拡張機能, 実世界のユースケースを取り上げ, YOLOファミリーの総合的なレビューを行う。
我々は、YOLOモデルの進化を批判的に分析し、様々なコンピュータビジョン領域にまたがる影響を拡大する新たな研究方向について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the past decade, object detection has advanced significantly, with the YOLO (You Only Look Once) family of models transforming the landscape of real-time vision applications through unified, end-to-end detection frameworks. From YOLOv1's pioneering regression-based detection to the latest YOLOv9, each version has systematically enhanced the balance between speed, accuracy, and deployment efficiency through continuous architectural and algorithmic advancements.. Beyond core object detection, modern YOLO architectures have expanded to support tasks such as instance segmentation, pose estimation, object tracking, and domain-specific applications including medical imaging and industrial automation. This paper offers a comprehensive review of the YOLO family, highlighting architectural innovations, performance benchmarks, extended capabilities, and real-world use cases. We critically analyze the evolution of YOLO models and discuss emerging research directions that extend their impact across diverse computer vision domains.
- Abstract(参考訳): 過去10年間で、オブジェクト検出は大幅に進歩し、YOLO(You Only Look Once)モデルのファミリーは、統合されたエンドツーエンド検出フレームワークを通じて、リアルタイム視覚アプリケーションのランドスケープを変革した。
YOLOv1の先駆的な回帰ベースの検出から最新のYOLOv9まで、各バージョンは継続的アーキテクチャとアルゴリズムの進歩を通じて、スピード、正確性、デプロイメント効率のバランスを体系的に強化した。
と。
コアオブジェクト検出以外にも、現代のYOLOアーキテクチャは、インスタンスセグメンテーション、ポーズ推定、オブジェクトトラッキング、医療画像や産業自動化を含むドメイン固有のアプリケーションといったタスクをサポートするように拡張されている。
本稿では, アーキテクチャの革新, パフォーマンスベンチマーク, 拡張機能, 実世界のユースケースを取り上げ, YOLOファミリーの総合的なレビューを行う。
我々は、YOLOモデルの進化を批判的に分析し、様々なコンピュータビジョン領域にまたがる影響を拡大する新たな研究方向について議論する。
関連論文リスト
- A Decade of You Only Look Once (YOLO) for Object Detection: A Review [0.0]
レビュー:You Only Look Once (YOLO)の10周年
YOLOはリアルタイムオブジェクト検出において最も影響力のあるフレームワークの1つである。
論文 参考訳(メタデータ) (2025-04-24T00:06:08Z) - YOLO-UniOW: Efficient Universal Open-World Object Detection [63.71512991320627]
オープン語彙とオープンワールドオブジェクト検出タスクを統合する新しいパラダイムであるUniversal Open-World Object Detection (Uni-OWD)を紹介する。
YOLO-UniOWはAdaptive Decision Learningを導入し、計算コストのかかるクロスモダリティ融合をCLIP潜伏空間の軽量アライメントに置き換える。
実験では、YOLO-UniOWが34.6 APと30.0 APr、推論速度は69.6 FPSを達成している。
論文 参考訳(メタデータ) (2024-12-30T01:34:14Z) - YOLO Evolution: A Comprehensive Benchmark and Architectural Review of YOLOv12, YOLO11, and Their Previous Versions [0.0]
本研究は, YOLOv3から最新のYOLOv12への包括的実験評価である。
考慮すべき課題は、さまざまなオブジェクトサイズ、多様なアスペクト比、単一クラスの小さなオブジェクトである。
分析では各YOLOバージョンの特徴的長所と短所を強調した。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - YOLOv11: An Overview of the Key Architectural Enhancements [0.5639904484784127]
本稿では、オブジェクト検出、インスタンスセグメンテーション、ポーズ推定、オブジェクト指向オブジェクト検出(OBB)など、さまざまなコンピュータビジョンタスクにまたがるYOLOv11の拡張機能について検討する。
本稿では,パラメータ数と精度のトレードオフに着目し,平均精度(mAP)と計算効率の両面からモデルの性能改善を概観する。
我々の研究は、オブジェクト検出の広い視野におけるYOLOv11の位置と、リアルタイムコンピュータビジョンアプリケーションに対する潜在的な影響についての洞察を提供する。
論文 参考訳(メタデータ) (2024-10-23T09:55:22Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLO advances to its genesis: a decadal and comprehensive review of the You Only Look Once (YOLO) series [6.751138557596013]
本稿では,YOLOv1からYOLOv12へのオブジェクト検出アルゴリズムの進歩を体系的に検討する。
この研究は、自動運転車と交通安全、ヘルスケアと医療画像、工業生産、監視とセキュリティ、農業の5つの重要な分野にわたるYOLOモデルの変革的な影響を強調している。
論文 参考訳(メタデータ) (2024-06-12T06:41:23Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - A Comprehensive Review of YOLO Architectures in Computer Vision: From
YOLOv1 to YOLOv8 and YOLO-NAS [0.0]
YOLOは、ロボット工学、無人運転車、およびビデオ監視アプリケーションのための中心的なリアルタイムオブジェクト検出システムとなっている。
本稿では,YOLOの進化を包括的に分析し,元のYOLOからYOLOv8,YOLO-NAS,YOLOをトランスフォーマーとしたYOLOまでの各イテレーションにおけるイノベーションとコントリビューションについて検討する。
論文 参考訳(メタデータ) (2023-04-02T10:27:34Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。