論文の概要: YOLOv6 v3.0: A Full-Scale Reloading
- arxiv url: http://arxiv.org/abs/2301.05586v1
- Date: Fri, 13 Jan 2023 14:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:52:55.414246
- Title: YOLOv6 v3.0: A Full-Scale Reloading
- Title(参考訳): YOLOv6 v3.0: フルスケールのリロード
- Authors: Chuyi Li, Lulu Li, Yifei Geng, Hongliang Jiang, Meng Cheng, Bo Zhang,
Zaidan Ke, Xiaoming Xu, Xiangxiang Chu
- Abstract要約: ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
- 参考スコア(独自算出の注目度): 9.348857966505111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The YOLO community has been in high spirits since our first two releases! By
the advent of Chinese New Year 2023, which sees the Year of the Rabbit, we
refurnish YOLOv6 with numerous novel enhancements on the network architecture
and the training scheme. This release is identified as YOLOv6 v3.0. For a
glimpse of performance, our YOLOv6-N hits 37.5% AP on the COCO dataset at a
throughput of 1187 FPS tested with an NVIDIA Tesla T4 GPU. YOLOv6-S strikes
45.0% AP at 484 FPS, outperforming other mainstream detectors at the same scale
(YOLOv5-S, YOLOv8-S, YOLOX-S and PPYOLOE-S). Whereas, YOLOv6-M/L also achieve
better accuracy performance (50.0%/52.8% respectively) than other detectors at
a similar inference speed. Additionally, with an extended backbone and neck
design, our YOLOv6-L6 achieves the state-of-the-art accuracy in real-time.
Extensive experiments are carefully conducted to validate the effectiveness of
each improving component. Our code is made available at
https://github.com/meituan/YOLOv6.
- Abstract(参考訳): YOLOコミュニティは、最初の2回のリリース以来、非常に精力的です!
ウサギの年をたどる2023年の中国の新年が到来すると、ネットワークアーキテクチャとトレーニングスキームに多くの新しい改良を加え、yolov6を改修しました。
このリリースは YOLOv6 v3.0 と同一視されている。
パフォーマンスを垣間見るために、当社のYOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットで、COCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%APを攻撃し、他の主流検出器(YOLOv5-S、YOLOv8-S、YOLOX-S、PPYOLOE-S)より高速である。
一方、YOLOv6-M/Lは同様の推論速度で他の検出器よりも精度(それぞれ50.0%/52.8%)が高い。
さらに、バックボーンとネックデザインの拡張により、我々のYOLOv6-L6はリアルタイムに最先端の精度を実現する。
各改善成分の有効性を検証するため、広範囲な実験を慎重に実施する。
私たちのコードはhttps://github.com/meituan/yolov6.comで利用可能です。
関連論文リスト
- Comprehensive Performance Evaluation of YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments [0.9565934024763958]
本研究は, 商業果樹園における緑果検出のためのYOLOv8, YOLOv9, YOLOv10, YOLO11の全構成(Total 22)を対象に, You Only Look Once (YOLO) オブジェクト検出アルゴリズムを広範囲に評価した。
この研究は、iPhoneとマシンビジョンセンサーを使って、Scifresh、Scilate、Honeycrisp、Cosmic Crispの4種類のリンゴをフィールドで数えたことも検証した。
論文 参考訳(メタデータ) (2024-07-01T17:59:55Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Gold-YOLO: Efficient Object Detector via Gather-and-Distribute Mechanism [40.31805155724484]
Gold-YOLOと名付けられた新しい設計モデルは、マルチスケールの機能融合能力を向上する。
YOLOシリーズにMAEスタイルの事前トレーニングを初めて実装し、YOLOシリーズモデルが教師なし事前トレーニングの恩恵を受けることができるようにした。
論文 参考訳(メタデータ) (2023-09-20T14:03:47Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications [16.047499394184985]
YOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達する。
YOLOv6-S は 495 FPS で 43.5% AP を攻撃し、他の主流検出器を同じ規模で上回っている。
YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
論文 参考訳(メタデータ) (2022-09-07T07:47:58Z) - YOLOX-PAI: An Improved YOLOX, Stronger and Faster than YOLOv6 [9.467160135481713]
我々は、様々なSOTAコンピュータビジョン手法の使用を容易にするために、EasyCVというオールインワンのコンピュータビジョンツールボックスを開発した。
本研究は,YOLOXに対する検出方法の影響を調べるためのアブレーション研究である。
1つのNVIDIA V100 GPUで1.0ms以内の日付セットで42.8mAPを受け取り、YOLOv6より少し高速です。
論文 参考訳(メタデータ) (2022-08-27T15:37:26Z) - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for
real-time object detectors [14.198747290672854]
YOLOv7は5FPSから160FPSまでの速度と精度で、既知の全ての物体検出器を上回っている。
YOLOv7は、GPU V100上で30FPS以上の実時間オブジェクト検出器の中で、最高精度の56.8%のAPを持つ。
YOLOv7は、他のデータセットやトレーニング済みの重みを使わずに、スクラッチからMSデータセットにのみトレーニングします。
論文 参考訳(メタデータ) (2022-07-06T14:01:58Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z) - PP-YOLO: An Effective and Efficient Implementation of Object Detector [44.189808709103865]
本稿では, 相対的に効率と効率のバランスの取れた物体検出器を実装した。
YOLOv3が実際に広く利用されていることを踏まえ, YOLOv3に基づく新しい物体検出器を開発した。
本論文のすべての実験はPaddlePaddleに基づいて行われるので、PP-YOLOと呼ぶ。
論文 参考訳(メタデータ) (2020-07-23T16:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。