論文の概要: ODVerse33: Is the New YOLO Version Always Better? A Multi Domain benchmark from YOLO v5 to v11
- arxiv url: http://arxiv.org/abs/2502.14314v1
- Date: Thu, 20 Feb 2025 06:57:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:27.927346
- Title: ODVerse33: Is the New YOLO Version Always Better? A Multi Domain benchmark from YOLO v5 to v11
- Title(参考訳): ODVerse33: 新しいYOLOバージョンは常に改善されているか? YOLO v5からv11までのマルチドメインベンチマーク
- Authors: Tianyou Jiang, Yang Zhong,
- Abstract要約: 主要な疑問は、新しいYOLOバージョンのリリース頻度の増加にある。
各YOLOバージョンの中核となるイノベーションはどのようなもので、これらの変更が実際のパフォーマンス向上にどのように変換されるのか?
本稿では、YOLOv1からYOLOv11への重要なイノベーションを要約し、ODverse33と呼ばれる包括的なベンチマークを導入し、実世界のマルチドメインアプリケーションにおけるモデル改善の実践的影響について検討する。
- 参考スコア(独自算出の注目度): 6.553031877558699
- License:
- Abstract: You Look Only Once (YOLO) models have been widely used for building real-time object detectors across various domains. With the increasing frequency of new YOLO versions being released, key questions arise. Are the newer versions always better than their previous versions? What are the core innovations in each YOLO version and how do these changes translate into real-world performance gains? In this paper, we summarize the key innovations from YOLOv1 to YOLOv11, introduce a comprehensive benchmark called ODverse33, which includes 33 datasets spanning 11 diverse domains (Autonomous driving, Agricultural, Underwater, Medical, Videogame, Industrial, Aerial, Wildlife, Retail, Microscopic, and Security), and explore the practical impact of model improvements in real-world, multi-domain applications through extensive experimental results. We hope this study can provide some guidance to the extensive users of object detection models and give some references for future real-time object detector development.
- Abstract(参考訳): You Look Only Once (YOLO)モデルは、様々なドメインにまたがるリアルタイムオブジェクト検出器を構築するために広く利用されている。
新しいYOLOバージョンのリリース頻度が増すにつれ、重要な疑問が浮かび上がっている。
新バージョンは常に以前のバージョンより優れているのでしょうか?
各YOLOバージョンの中核となるイノベーションはどのようなもので、これらの変更が実際のパフォーマンス向上にどのように変換されるのか?
本稿では, YOLOv1 から YOLOv11 への重要なイノベーションを要約し, ODverse33 という,11 の異なる領域(自律走行, 農業, 水中, 医療, ビデオゲーム, 産業, 航空, 野生生物, 小売, マイクロスコープ, セキュリティ)にまたがる33 のデータセットを含む総合的なベンチマークを導入する。
本研究は,オブジェクト検出モデルの広範囲なユーザに対していくつかのガイダンスを提供し,将来のリアルタイムオブジェクト検出の開発への参考となるものを提供してくれることを願っている。
関連論文リスト
- YOLOv8 to YOLO11: A Comprehensive Architecture In-depth Comparative Review [0.0]
本研究では,最新の4つのYOLOモデルについて,包括的かつ詳細なアーキテクチャ比較を行った。
分析の結果、YOLOの各バージョンはアーキテクチャと特徴抽出が改善されているが、特定のブロックは変更されていないことがわかった。
論文 参考訳(メタデータ) (2025-01-23T05:57:13Z) - YOLO-UniOW: Efficient Universal Open-World Object Detection [63.71512991320627]
オープン語彙とオープンワールドオブジェクト検出タスクを統合する新しいパラダイムであるUniversal Open-World Object Detection (Uni-OWD)を紹介する。
YOLO-UniOWはAdaptive Decision Learningを導入し、計算コストのかかるクロスモダリティ融合をCLIP潜伏空間の軽量アライメントに置き換える。
実験では、YOLO-UniOWが34.6 APと30.0 APr、推論速度は69.6 FPSを達成している。
論文 参考訳(メタデータ) (2024-12-30T01:34:14Z) - YOLO11 to Its Genesis: A Decadal and Comprehensive Review of The You Only Look Once (YOLO) Series [6.751138557596013]
本稿では,YOLOv1からYOLOv11へのオブジェクト検出アルゴリズムの進歩を体系的に検討する。
この進化は、今後10年間、YOLOとマルチモーダル、コンテキスト認識、人工知能(AGI)システムを統合するための道のりを示している。
論文 参考訳(メタデータ) (2024-06-12T06:41:23Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Model Compression Methods for YOLOv5: A Review [1.2387676601792899]
比較モジュラリティのため、我々はプルーニングと量子化に重点を置いています。
これは、YOLOv5の実装の観点から、プルーニングと量子化の手法を調査する最初の具体的なレビュー論文である。
我々の研究は、リソース制限されたデバイスに実装することで、新しいバージョンのYOLOにも拡張可能であり、今日でも同様の課題が続いている。
論文 参考訳(メタデータ) (2023-07-21T21:07:56Z) - A Comprehensive Review of YOLO Architectures in Computer Vision: From
YOLOv1 to YOLOv8 and YOLO-NAS [0.0]
YOLOは、ロボット工学、無人運転車、およびビデオ監視アプリケーションのための中心的なリアルタイムオブジェクト検出システムとなっている。
本稿では,YOLOの進化を包括的に分析し,元のYOLOからYOLOv8,YOLO-NAS,YOLOをトランスフォーマーとしたYOLOまでの各イテレーションにおけるイノベーションとコントリビューションについて検討する。
論文 参考訳(メタデータ) (2023-04-02T10:27:34Z) - YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications [16.047499394184985]
YOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達する。
YOLOv6-S は 495 FPS で 43.5% AP を攻撃し、他の主流検出器を同じ規模で上回っている。
YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
論文 参考訳(メタデータ) (2022-09-07T07:47:58Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。