論文の概要: YOLOX: Exceeding YOLO Series in 2021
- arxiv url: http://arxiv.org/abs/2107.08430v1
- Date: Sun, 18 Jul 2021 12:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:59:05.446301
- Title: YOLOX: Exceeding YOLO Series in 2021
- Title(参考訳): YOLOX:2021年にYOLOシリーズを発売
- Authors: Zheng Ge, Songtao Liu, Feng Wang, Zeming Li, Jian Sun
- Abstract要約: 我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
- 参考スコア(独自算出の注目度): 25.734980783220976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we present some experienced improvements to YOLO series,
forming a new high-performance detector -- YOLOX. We switch the YOLO detector
to an anchor-free manner and conduct other advanced detection techniques, i.e.,
a decoupled head and the leading label assignment strategy SimOTA to achieve
state-of-the-art results across a large scale range of models: For YOLO-Nano
with only 0.91M parameters and 1.08G FLOPs, we get 25.3% AP on COCO, surpassing
NanoDet by 1.8% AP; for YOLOv3, one of the most widely used detectors in
industry, we boost it to 47.3% AP on COCO, outperforming the current best
practice by 3.0% AP; for YOLOX-L with roughly the same amount of parameters as
YOLOv4-CSP, YOLOv5-L, we achieve 50.0% AP on COCO at a speed of 68.9 FPS on
Tesla V100, exceeding YOLOv5-L by 1.8% AP. Further, we won the 1st Place on
Streaming Perception Challenge (Workshop on Autonomous Driving at CVPR 2021)
using a single YOLOX-L model. We hope this report can provide useful experience
for developers and researchers in practical scenes, and we also provide deploy
versions with ONNX, TensorRT, NCNN, and Openvino supported. Source code is at
https://github.com/Megvii-BaseDetection/YOLOX.
- Abstract(参考訳): 本報告では、YOLOシリーズの改良を経験し、新しい高性能検出器YOLOXを作成した。
We switch the YOLO detector to an anchor-free manner and conduct other advanced detection techniques, i.e., a decoupled head and the leading label assignment strategy SimOTA to achieve state-of-the-art results across a large scale range of models: For YOLO-Nano with only 0.91M parameters and 1.08G FLOPs, we get 25.3% AP on COCO, surpassing NanoDet by 1.8% AP; for YOLOv3, one of the most widely used detectors in industry, we boost it to 47.3% AP on COCO, outperforming the current best practice by 3.0% AP; for YOLOX-L with roughly the same amount of parameters as YOLOv4-CSP, YOLOv5-L, we achieve 50.0% AP on COCO at a speed of 68.9 FPS on Tesla V100, exceeding YOLOv5-L by 1.8% AP.
さらに,単一YOLOX-Lモデルを用いて,第1回ストリーミング知覚チャレンジ(CVPR 2021における自律運転ワークショップ)を受賞した。
このレポートは、実践的な場面で開発者や研究者に有用なエクスペリエンスを提供し、ONNX、TensorRT、NCNN、Openvinoをサポートするデプロイバージョンも提供することを期待しています。
ソースコードはhttps://github.com/Megvii-BaseDetection/YOLOXにある。
関連論文リスト
- Comprehensive Performance Evaluation of YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments [0.9565934024763958]
本研究は, 商業果樹園における緑果検出のためのYOLOv8, YOLOv9, YOLOv10, YOLO11の全構成(Total 22)を対象に, You Only Look Once (YOLO) オブジェクト検出アルゴリズムを広範囲に評価した。
この研究は、iPhoneとマシンビジョンセンサーを使って、Scifresh、Scilate、Honeycrisp、Cosmic Crispの4種類のリンゴをフィールドで数えたことも検証した。
論文 参考訳(メタデータ) (2024-07-01T17:59:55Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - YOLOv6 v3.0: A Full-Scale Reloading [9.348857966505111]
ネットワークアーキテクチャとトレーニングスキームに関して,多数の新たな拡張を施したYOLOv6を更新する。
YOLOv6-Nは、NVIDIA Tesla T4 GPUでテストされた1187 FPSのスループットでCOCOデータセットで37.5%APに達した。
YOLOv6-Sは484 FPSで45.0%のAPを攻撃し、他の主流検出器よりも高速である。
論文 参考訳(メタデータ) (2023-01-13T14:46:46Z) - YOLOv6: A Single-Stage Object Detection Framework for Industrial
Applications [16.047499394184985]
YOLOv6-Nは、NVIDIA Tesla T4 GPU上で1234 FPSのスループットでCOCOデータセットで35.9%APに達する。
YOLOv6-S は 495 FPS で 43.5% AP を攻撃し、他の主流検出器を同じ規模で上回っている。
YOLOv6-M/Lは、同様の推論速度を持つ他の検出器よりも精度(49.5%/52.3%)が高い。
論文 参考訳(メタデータ) (2022-09-07T07:47:58Z) - YOLOX-PAI: An Improved YOLOX, Stronger and Faster than YOLOv6 [9.467160135481713]
我々は、様々なSOTAコンピュータビジョン手法の使用を容易にするために、EasyCVというオールインワンのコンピュータビジョンツールボックスを開発した。
本研究は,YOLOXに対する検出方法の影響を調べるためのアブレーション研究である。
1つのNVIDIA V100 GPUで1.0ms以内の日付セットで42.8mAPを受け取り、YOLOv6より少し高速です。
論文 参考訳(メタデータ) (2022-08-27T15:37:26Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。