論文の概要: Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets
- arxiv url: http://arxiv.org/abs/2010.14819v2
- Date: Thu, 24 Dec 2020 09:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:29:55.490556
- Title: Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets
- Title(参考訳): モデルルービックキューブ:tinynetsのツイスト解像度、深さ、幅
- Authors: Kai Han, Yunhe Wang, Qiulin Zhang, Wei Zhang, Chunjing Xu, Tong Zhang
- Abstract要約: 解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
- 参考スコア(独自算出の注目度): 65.28292822614418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To obtain excellent deep neural architectures, a series of techniques are
carefully designed in EfficientNets. The giant formula for simultaneously
enlarging the resolution, depth and width provides us a Rubik's cube for neural
networks. So that we can find networks with high efficiency and excellent
performance by twisting the three dimensions. This paper aims to explore the
twisting rules for obtaining deep neural networks with minimum model sizes and
computational costs. Different from the network enlarging, we observe that
resolution and depth are more important than width for tiny networks.
Therefore, the original method, i.e., the compound scaling in EfficientNet is
no longer suitable. To this end, we summarize a tiny formula for downsizing
neural architectures through a series of smaller models derived from the
EfficientNet-B0 with the FLOPs constraint. Experimental results on the ImageNet
benchmark illustrate that our TinyNet performs much better than the smaller
version of EfficientNets using the inversed giant formula. For instance, our
TinyNet-E achieves a 59.9% Top-1 accuracy with only 24M FLOPs, which is about
1.9% higher than that of the previous best MobileNetV3 with similar
computational cost. Code will be available at
https://github.com/huawei-noah/ghostnet/tree/master/tinynet_pytorch, and
https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/tinynet.
- Abstract(参考訳): 優れたディープニューラルネットワークを実現するために、EfficientNetsでは、一連のテクニックを慎重に設計する。
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供します。
したがって、3次元をねじって高効率で優れた性能のネットワークを見つけることができる。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
ネットワーク拡大と異なり、小さなネットワークの幅よりも解像度と深さが重要であることが観察される。
したがって、もともとの方法、すなわち、効率の良いネットの複合スケーリングはもはや適切ではない。
この目的のために, FLOPs制約付きEfficientNet-B0から導出される一連のモデルを通じて, ニューラルネットワークを小型化するための小さな公式を要約する。
ImageNetベンチマークの実験結果によると、我々のTinyNetは、逆の巨大式を使ったEfficientNetsの小さなバージョンよりもはるかに優れたパフォーマンスを示している。
例えば、私たちのtinynet-eは、わずか24mのフロップで59.9%のtop-1精度を達成しています。
コードはhttps://github.com/huawei-noah/ghostnet/tree/tinynet_pytorch、https://gitee.com/mindspore/mindspore/tree/master/model_zoo/research/cv/tinynetで入手できる。
関連論文リスト
- MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs [148.0476219278875]
現代畳み込みニューラルネットワーク(CNN)における大規模カーネル設計の再検討
本稿では、視覚変換器(ViT)の最近の進歩に触発されて、小さなカーネルのスタックではなく、少数の大きな畳み込みカーネルを使うことが、より強力なパラダイムであることを実証する。
本稿では,カーネルサイズが31x31の純粋なCNNアーキテクチャであるRepLKNetを提案する。
論文 参考訳(メタデータ) (2022-03-13T17:22:44Z) - Hidden-Fold Networks: Random Recurrent Residuals Using Sparse Supermasks [1.0814638303152528]
ディープニューラルネットワーク(DNN)は過度にパラメータ化されているため、最近の研究で、高い精度でサブネットワークを含むことが判明した。
本稿では,これらの研究の行を高度に圧縮されながら正確なモデルにブレンドすることを提案する:Hedden-Fold Networks (HFNs)。
CIFAR100のResNet50と同等の性能を実現し、メモリは38.5倍、ImageNetのResNet34は26.8倍小さい。
論文 参考訳(メタデータ) (2021-11-24T08:24:31Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - ThresholdNet: Pruning Tool for Densely Connected Convolutional Networks [2.267411144256508]
メモリのしきい値電圧の原理に言及した新しいタイプのプルーニングツール「しきい値」を導入する。
この手法は、異なる深さのブロックを異なる方法で接続し、メモリ使用量を減らすために使用される。
実験によると、HarDNetはDenseNetの2倍の速さで、ThresholdNetはHarDNetよりも10%速く、エラー率は10%低い。
論文 参考訳(メタデータ) (2021-08-28T08:48:31Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - FBNetV2: Differentiable Neural Architecture Search for Spatial and
Channel Dimensions [70.59851564292828]
微分可能なニューラルネットワーク探索(DNAS)は、最先端で効率的なニューラルネットワークの設計において大きな成功を収めている。
メモリと計算効率のよいDNAS変異体DMaskingNASを提案する。
このアルゴリズムは、検索スペースを従来のDNASよりも最大1014倍に拡張する。
論文 参考訳(メタデータ) (2020-04-12T08:52:15Z) - MeliusNet: Can Binary Neural Networks Achieve MobileNet-level Accuracy? [12.050205584630922]
バイナリニューラルネットワーク(BNN)は、典型的な32ビット浮動小数点値の代わりに2重みとアクティベーションを使用するニューラルネットワークである。
本稿では,特徴量を増加させるDenseBlockと,特徴量を増加させるAdvancedBlockというアーキテクチャアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-16T16:56:10Z) - AdderNet: Do We Really Need Multiplications in Deep Learning? [159.174891462064]
我々は、深層ニューラルネットワークにおける膨大な乗算を、計算コストを削減するためにはるかに安価な加算のために取引するための加算器ネットワーク(AdderNets)を提案する。
本稿では,AdderNets のバックプロパゲーション手法を提案する。
その結果、提案されたAdderNetsは、ImageNetデータセット上でResNet-50を使用して、74.9%のTop-1精度91.7%のTop-5精度を達成することができる。
論文 参考訳(メタデータ) (2019-12-31T06:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。