論文の概要: YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications
- arxiv url: http://arxiv.org/abs/2209.02976v1
- Date: Wed, 7 Sep 2022 07:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:37:36.521788
- Title: YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications
- Title(参考訳): YOLOv6: 産業アプリケーションのための単一ステージオブジェクト検出フレームワーク
- Authors: Chuyi Li, Lulu Li, Hongliang Jiang, Kaiheng Weng, Yifei Geng, Liang
Li, Zaidan Ke, Qingyuan Li, Meng Cheng, Weiqiang Nie, Yiduo Li, Bo Zhang,
Yufei Liang, Linyuan Zhou, Xiaoming Xu, Xiangxiang Chu, Xiaoming Wei, Xiaolin
Wei
- Abstract要約: YOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達する。
YOLOv6-S は 495 FPS で 43.5% AP を攻撃し、他の主流検出器を同じ規模で上回っている。
YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
- 参考スコア(独自算出の注目度): 16.047499394184985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For years, the YOLO series has been the de facto industry-level standard for
efficient object detection. The YOLO community has prospered overwhelmingly to
enrich its use in a multitude of hardware platforms and abundant scenarios. In
this technical report, we strive to push its limits to the next level, stepping
forward with an unwavering mindset for industry application.
Considering the diverse requirements for speed and accuracy in the real
environment, we extensively examine the up-to-date object detection
advancements either from industry or academia. Specifically, we heavily
assimilate ideas from recent network design, training strategies, testing
techniques, quantization, and optimization methods. On top of this, we
integrate our thoughts and practice to build a suite of deployment-ready
networks at various scales to accommodate diversified use cases. With the
generous permission of YOLO authors, we name it YOLOv6. We also express our
warm welcome to users and contributors for further enhancement. For a glimpse
of performance, our YOLOv6-N hits 35.9% AP on the COCO dataset at a throughput
of 1234 FPS on an NVIDIA Tesla T4 GPU. YOLOv6-S strikes 43.5% AP at 495 FPS,
outperforming other mainstream detectors at the same scale~(YOLOv5-S, YOLOX-S,
and PPYOLOE-S). Our quantized version of YOLOv6-S even brings a new
state-of-the-art 43.3% AP at 869 FPS. Furthermore, YOLOv6-M/L also achieves
better accuracy performance (i.e., 49.5%/52.3%) than other detectors with a
similar inference speed. We carefully conducted experiments to validate the
effectiveness of each component. Our code is made available at
https://github.com/meituan/YOLOv6.
- Abstract(参考訳): 長年、YOLOシリーズは効率的なオブジェクト検出のための事実上の業界レベルの標準であった。
YOLOコミュニティは、多数のハードウェアプラットフォームと豊富なシナリオでの利用を豊かにするために、圧倒的に繁栄しています。
この技術レポートでは、業界アプリケーションに対する不安定な考え方を推し進めながら、その限界を次のレベルに押し上げようとしています。
実環境における速度と精度の多様な要件を考慮し、産業・学界の最新の物体検出の進歩を幅広く検討する。
具体的には、最近のネットワーク設計、トレーニング戦略、テスト技術、量子化、最適化手法のアイデアを大いに同化します。
これに加えて、さまざまなユースケースに対応するために、さまざまなスケールでデプロイ可能なネットワークスイートを構築するための考え方とプラクティスを統合しています。
YOLO著者の寛大な許可を得て、YOLOv6と命名した。
また、さらなる拡張のために、ユーザとコントリビューターに暖かく歓迎します。
パフォーマンスを垣間見るために、私たちのYOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達した。
YOLOv6-Sは43.5%のAPを495 FPSで攻撃し、他の主流検出器(YOLOv5-S、YOLOX-S、PPYOLOE-S)より優れている。
YOLOv6-Sの量子化バージョンでは、869 FPSで43.3%のAPが新たに導入された。
さらに、YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
各成分の有効性を検証する実験を慎重に実施した。
私たちのコードはhttps://github.com/meituan/yolov6.comで利用可能です。
関連論文リスト
- Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Model Compression Methods for YOLOv5: A Review [1.2387676601792899]
比較モジュラリティのため、我々はプルーニングと量子化に重点を置いています。
これは、YOLOv5の実装の観点から、プルーニングと量子化の手法を調査する最初の具体的なレビュー論文である。
我々の研究は、リソース制限されたデバイスに実装することで、新しいバージョンのYOLOにも拡張可能であり、今日でも同様の課題が続いている。
論文 参考訳(メタデータ) (2023-07-21T21:07:56Z) - Towards End-to-end Semi-supervised Learning for One-stage Object
Detection [88.56917845580594]
本稿では,高度な一段検出ネットワークYOLOv5の半教師付き学習に焦点を当てた。
そこで我々は,Multi-view Pseudo-label Refinement (MPR) とDecoupled Semi-supervised Optimization (DSO) の2つの革新的な設計を取り入れた新しい教師学習レシピOneTeacherを提案する。
特に、MPRは、拡張ビューリファインメントとグローバルビューフィルタリングによって擬似ラベルの品質を改善し、DSOは構造的な微調整とタスク固有の擬似ラベルによる共同最適化競合を処理する。
論文 参考訳(メタデータ) (2023-02-22T11:35:40Z) - YOLOv6 v3.0: A Full-Scale Reloading [9.348857966505111]
ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
論文 参考訳(メタデータ) (2023-01-13T14:46:46Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z) - PP-YOLO: An Effective and Efficient Implementation of Object Detector [44.189808709103865]
本稿では, 相対的に効率と効率のバランスの取れた物体検出器を実装した。
YOLOv3が実際に広く利用されていることを踏まえ, YOLOv3に基づく新しい物体検出器を開発した。
本論文のすべての実験はPaddlePaddleに基づいて行われるので、PP-YOLOと呼ぶ。
論文 参考訳(メタデータ) (2020-07-23T16:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。