論文の概要: YOLOv10: Real-Time End-to-End Object Detection
- arxiv url: http://arxiv.org/abs/2405.14458v2
- Date: Wed, 30 Oct 2024 01:49:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:22:56.619886
- Title: YOLOv10: Real-Time End-to-End Object Detection
- Title(参考訳): YOLOv10: リアルタイムのエンドツーエンドオブジェクト検出
- Authors: Ao Wang, Hui Chen, Lihao Liu, Kai Chen, Zijia Lin, Jungong Han, Guiguang Ding,
- Abstract要約: リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
- 参考スコア(独自算出の注目度): 68.28699631793967
- License:
- Abstract: Over the past years, YOLOs have emerged as the predominant paradigm in the field of real-time object detection owing to their effective balance between computational cost and detection performance. Researchers have explored the architectural designs, optimization objectives, data augmentation strategies, and others for YOLOs, achieving notable progress. However, the reliance on the non-maximum suppression (NMS) for post-processing hampers the end-to-end deployment of YOLOs and adversely impacts the inference latency. Besides, the design of various components in YOLOs lacks the comprehensive and thorough inspection, resulting in noticeable computational redundancy and limiting the model's capability. It renders the suboptimal efficiency, along with considerable potential for performance improvements. In this work, we aim to further advance the performance-efficiency boundary of YOLOs from both the post-processing and model architecture. To this end, we first present the consistent dual assignments for NMS-free training of YOLOs, which brings competitive performance and low inference latency simultaneously. Moreover, we introduce the holistic efficiency-accuracy driven model design strategy for YOLOs. We comprehensively optimize various components of YOLOs from both efficiency and accuracy perspectives, which greatly reduces the computational overhead and enhances the capability. The outcome of our effort is a new generation of YOLO series for real-time end-to-end object detection, dubbed YOLOv10. Extensive experiments show that YOLOv10 achieves state-of-the-art performance and efficiency across various model scales. For example, our YOLOv10-S is 1.8$\times$ faster than RT-DETR-R18 under the similar AP on COCO, meanwhile enjoying 2.8$\times$ smaller number of parameters and FLOPs. Compared with YOLOv9-C, YOLOv10-B has 46\% less latency and 25\% fewer parameters for the same performance.
- Abstract(参考訳): 過去数年間、計算コストと検出性能の効果的なバランスのため、リアルタイムオブジェクト検出の分野では、YOLOが主流のパラダイムとして現れてきた。
研究者は、YOLOのためのアーキテクチャ設計、最適化の目標、データ拡張戦略などについて調査し、顕著な進歩を遂げた。
しかし、後処理のハマーに対する非最大抑圧(NMS)への依存は、YOLOのエンドツーエンドデプロイメントに影響を与え、推論遅延に悪影響を及ぼす。
さらに、YOLOの様々なコンポーネントの設計には包括的かつ徹底的な検査が欠如しており、計算の冗長性が顕著になり、モデルの能力が制限される。
性能改善の可能性を秘め、最適化の効率を低下させる。
本研究では, 後処理とモデルアーキテクチャの両方から, YOLOの性能・効率境界をさらに進めることを目的としている。
この目的のために、まず、競合性能と低推論遅延を同時にもたらす、NMSのないYOLOのトレーニングに一貫した双対代入を提示する。
さらに, YOLOの総合的効率-精度モデル設計戦略についても紹介する。
計算オーバーヘッドを大幅に低減し,能力の向上を図るため,効率と精度の両面からYOLOの様々なコンポーネントを包括的に最適化する。
我々の取り組みの結果は、YOLOv10と呼ばれるリアルタイムのエンドツーエンドオブジェクト検出のためのYOLOシリーズの新世代である。
大規模な実験により、YOLOv10は様々なモデルスケールで最先端のパフォーマンスと効率を達成することが示された。
例えば、我々のYOLOv10-Sは、同様のAP on COCOの下でRT-DETR-R18よりも1.8$\times$速いが、パラメータやFLOPは2.8$\times$小さい。
YOLOv9-Cと比較すると、YOLOv10-Bは46倍のレイテンシと25倍のパラメータを持つ。
関連論文リスト
- Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - RCS-YOLO: A Fast and High-Accuracy Object Detector for Brain Tumor
Detection [7.798672884591179]
チャネルシャッフル(RCS-YOLO)に基づく新しいYOLOアーキテクチャを提案する。
脳腫瘍データセット Br35H の実験的結果は,提案モデルが YOLOv6, YOLOv7, YOLOv8 を超える速度と精度を示した。
提案したRCS-YOLOは,脳腫瘍検出タスクにおける最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-07-31T05:38:17Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。