論文の概要: Scaled-YOLOv4: Scaling Cross Stage Partial Network
- arxiv url: http://arxiv.org/abs/2011.08036v2
- Date: Mon, 22 Feb 2021 01:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:49:17.903822
- Title: Scaled-YOLOv4: Scaling Cross Stage Partial Network
- Title(参考訳): Scaled-YOLOv4: クロスステージ部分ネットワークのスケーリング
- Authors: Chien-Yao Wang, Alexey Bochkovskiy, Hong-Yuan Mark Liao
- Abstract要約: CSP アプローチに基づく YOLOv4 オブジェクト検出ニューラルネットワークは,上向きと下向きの両方にスケールする。
本稿では,ネットワークの深さ,幅,解像度だけでなく,ネットワークの構造も変更するネットワークスケーリング手法を提案する。
- 参考スコア(独自算出の注目度): 14.198747290672854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that the YOLOv4 object detection neural network based on the CSP
approach, scales both up and down and is applicable to small and large networks
while maintaining optimal speed and accuracy. We propose a network scaling
approach that modifies not only the depth, width, resolution, but also
structure of the network. YOLOv4-large model achieves state-of-the-art results:
55.5% AP (73.4% AP50) for the MS COCO dataset at a speed of ~16 FPS on Tesla
V100, while with the test time augmentation, YOLOv4-large achieves 56.0% AP
(73.3 AP50). To the best of our knowledge, this is currently the highest
accuracy on the COCO dataset among any published work. The YOLOv4-tiny model
achieves 22.0% AP (42.0% AP50) at a speed of 443 FPS on RTX 2080Ti, while by
using TensorRT, batch size = 4 and FP16-precision the YOLOv4-tiny achieves 1774
FPS.
- Abstract(参考訳): 本稿では,cspアプローチに基づくyolov4オブジェクト検出ニューラルネットワークのスケールアップとスケールダウンを行い,最適速度と精度を維持しつつ,大規模ネットワークに適用できることを示す。
本稿では,ネットワークの深さ,幅,解像度だけでなく,ネットワークの構造も変更するネットワークスケーリング手法を提案する。
55.5% AP(73.4% AP50)のMS COCOデータセットを、Tesla V100で約16 FPSの速度で実行し、テスト時間拡張により、YOLOv4-largeは56.0% AP(73.3 AP50)を達成する。
私たちの知る限りでは、これは現在、公表された作業の中でCOCOデータセットで最も正確である。
YOLOv4-tinyモデルはRTX 2080Tiで443 FPSの速度で22.0% AP(42.0% AP50)を達成し、TensorRTではバッチサイズ=4とFP16-精度で1774 FPSを達成する。
関連論文リスト
- LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - DAMO-YOLO : A Report on Real-Time Object Detection Design [19.06518351354291]
本稿では,最新のYOLOシリーズよりも高速かつ高精度なオブジェクト検出手法であるDAMO-YOLOを提案する。
我々は最大エントロピーの原理で導かれるMAE-NASを用いて検出バックボーンを探索する。
「首と首のデザインでは、大首と小首の規則に従っている。」
論文 参考訳(メタデータ) (2022-11-23T17:59:12Z) - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for
real-time object detectors [14.198747290672854]
YOLOv7は5FPSから160FPSまでの速度と精度で、既知の全ての物体検出器を上回っている。
YOLOv7は、GPU V100上で30FPS以上の実時間オブジェクト検出器の中で、最高精度の56.8%のAPを持つ。
YOLOv7は、他のデータセットやトレーニング済みの重みを使わずに、スクラッチからMSデータセットにのみトレーニングします。
論文 参考訳(メタデータ) (2022-07-06T14:01:58Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。