論文の概要: RepVGG: Making VGG-style ConvNets Great Again
- arxiv url: http://arxiv.org/abs/2101.03697v3
- Date: Mon, 29 Mar 2021 13:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:51:56.828282
- Title: RepVGG: Making VGG-style ConvNets Great Again
- Title(参考訳): RepVGG:VGGスタイルのConvNetを再び素晴らしいものに
- Authors: Xiaohan Ding, Xiangyu Zhang, Ningning Ma, Jungong Han, Guiguang Ding,
Jian Sun
- Abstract要約: 本稿では,3x3畳み込みとReLUのスタックのみからなるVGGのような推論時間体を持つ,畳み込みニューラルネットワークの単純かつ強力なアーキテクチャを提案する。
RepVGGは、私たちの知識を最大限に活用するために、プレーンモデルにとって初めてである80%以上のトップ-1の精度に達します。
- 参考スコア(独自算出の注目度): 116.0327370719692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple but powerful architecture of convolutional neural
network, which has a VGG-like inference-time body composed of nothing but a
stack of 3x3 convolution and ReLU, while the training-time model has a
multi-branch topology. Such decoupling of the training-time and inference-time
architecture is realized by a structural re-parameterization technique so that
the model is named RepVGG. On ImageNet, RepVGG reaches over 80% top-1 accuracy,
which is the first time for a plain model, to the best of our knowledge. On
NVIDIA 1080Ti GPU, RepVGG models run 83% faster than ResNet-50 or 101% faster
than ResNet-101 with higher accuracy and show favorable accuracy-speed
trade-off compared to the state-of-the-art models like EfficientNet and RegNet.
The code and trained models are available at
https://github.com/megvii-model/RepVGG.
- Abstract(参考訳): 本稿では3x3畳み込みとReLUのスタックのみで構成されたVGGのような推論時間体を持つ畳み込みニューラルネットワークの単純かつ強力なアーキテクチャを提案する。
このようなトレーニング時間と推論時間の分離は構造的再パラメータ化技術により実現され、モデルがRepVGGと命名される。
ImageNetでは、RepVGGが80%以上のトップ1精度に達しています。
NVIDIA 1080Ti GPUでは、RepVGGモデルはResNet-50より83%高速、ResNet-101より101%高速で動作し、EfficientNetやRegNetのような最先端のモデルと比較して精度と速度のトレードオフが良好である。
コードとトレーニングされたモデルはhttps://github.com/megvii-model/RepVGGで入手できる。
関連論文リスト
- DSNet: A Novel Way to Use Atrous Convolutions in Semantic Segmentation [8.240211805240023]
我々は、現代の畳み込みニューラルネットワーク(CNN)におけるアトラス畳み込みの設計を再考する。
本稿では,モデルアーキテクチャの浅い層にアトラス畳み込みを組み込んだDual-Branch CNNアーキテクチャDSNetを提案する。
私たちのモデルは、ADE20K、Cityscapes、BDDデータセットの正確性とスピードの新たな最先端のトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-06-06T02:51:57Z) - ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders [104.05133094625137]
完全畳み込み型マスク付きオートエンコーダフレームワークと,新たなグローバル応答正規化層を提案する。
この自己教師付き学習技術とアーキテクチャ改善の共設計により、純粋なConvNetの性能を大幅に向上させるConvNeXt V2と呼ばれる新しいモデルファミリが生まれる。
論文 参考訳(メタデータ) (2023-01-02T18:59:31Z) - Re-parameterizing Your Optimizers rather than Architectures [119.08740698936633]
本稿では,モデル固有の事前知識を構造学に取り入れ,汎用モデル(簡易モデル)の学習に使用する新しいパラダイムを提案する。
実装として,モデル固有のハイパーパラメータの集合に従って勾配を変更することによって,事前知識を付加する手法を提案する。
Reprでトレーニングされた単純なモデルに対しては、VGGスタイルのプレーンモデルに注目し、ReprでトレーニングされたそのようなシンプルなモデルがRep-VGGと呼ばれ、最近のよく設計されたモデルと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-05-30T16:55:59Z) - RMNet: Equivalently Removing Residual Connection from Networks [15.32653042487324]
本稿では,ResBlock上でのRM(Reserving and merging)操作により,バニラResNetの残コネクションを等価に除去することを提案する。
プラグイン方式として, RMオペレーションには, 1 つの利点がある: 1 つの実装により, 高比ネットワークプルーニングに自然に対応でき, 2) RepVGG の深さ制限を破り, 3) ResNet や RepVGG よりも精度の高いトレードオフネットワーク (RMNet) を実現する。
論文 参考訳(メタデータ) (2021-11-01T04:07:45Z) - EfficientNetV2: Smaller Models and Faster Training [91.77432224225221]
本稿では,従来のモデルよりも高速な学習速度とパラメータ効率を有する畳み込みネットワークであるEfficientNetV2を紹介する。
トレーニング対応のニューラルネットワークアーキテクチャ検索とスケーリングを組み合わせて、トレーニング速度とパラメータ効率を共同で最適化します。
実験の結果,EfficientNetV2モデルは最先端モデルよりも最大6.8倍の速度でトレーニングできることがわかった。
論文 参考訳(メタデータ) (2021-04-01T07:08:36Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - TResNet: High Performance GPU-Dedicated Architecture [6.654949459658242]
近年開発された多くのディープラーニングモデルは、FLOPS数が少なく、ResNet50よりもImageNetの精度が高い。
本稿では、GPUトレーニングと推論効率を維持しながら、ニューラルネットワークの精度を高めることを目的としたアーキテクチャ修正のシリーズを紹介する。
我々は、従来のConvNetよりも精度と効率を向上する、TResNetと呼ばれるGPU専用モデルの新しいファミリーを紹介する。
論文 参考訳(メタデータ) (2020-03-30T17:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。