論文の概要: Slimmable Pruned Neural Networks
- arxiv url: http://arxiv.org/abs/2212.03415v1
- Date: Wed, 7 Dec 2022 02:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 16:16:12.214562
- Title: Slimmable Pruned Neural Networks
- Title(参考訳): スリム化可能な刈り込みニューラルネットワーク
- Authors: Hideaki Kuratsu and Atsuyoshi Nakamura
- Abstract要約: S-Net上の各サブネットワークの精度は、同一サイズの個別訓練ネットワークよりも劣る。
プリミングによって学習されたサブネットワーク構造を有するSlimmable Pruned Neural Networks (SP-Net)を提案する。
SP-Netは任意の種類のチャネルプルーニング手法と組み合わせることができ、NASモデルのような複雑な処理や時間を要するアーキテクチャ検索は不要である。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Slimmable Neural Networks (S-Net) is a novel network which enabled to select
one of the predefined proportions of channels (sub-network) dynamically
depending on the current computational resource availability. The accuracy of
each sub-network on S-Net, however, is inferior to that of individually trained
networks of the same size due to its difficulty of simultaneous optimization on
different sub-networks. In this paper, we propose Slimmable Pruned Neural
Networks (SP-Net), which has sub-network structures learned by pruning instead
of adopting structures with the same proportion of channels in each layer
(width multiplier) like S-Net, and we also propose new pruning procedures:
multi-base pruning instead of one-shot or iterative pruning to realize high
accuracy and huge training time saving. We also introduced slimmable channel
sorting (scs) to achieve calculation as fast as S-Net and zero padding match
(zpm) pruning to prune residual structure in more efficient way. SP-Net can be
combined with any kind of channel pruning methods and does not require any
complicated processing or time-consuming architecture search like NAS models.
Compared with each sub-network of the same FLOPs on S-Net, SP-Net improves
accuracy by 1.2-1.5% for ResNet-50, 0.9-4.4% for VGGNet, 1.3-2.7% for
MobileNetV1, 1.4-3.1% for MobileNetV2 on ImageNet. Furthermore, our methods
outperform other SOTA pruning methods and are on par with various NAS models
according to our experimental results on ImageNet. The code is available at
https://github.com/hideakikuratsu/SP-Net.
- Abstract(参考訳): Slimmable Neural Networks (S-Net) は、現在の計算資源の可用性に応じて、事前に定義されたチャネル(サブネットワーク)の1つを動的に選択できる新しいネットワークである。
しかし、S-Net上の各サブネットワークの精度は、異なるサブネットワーク上での同時最適化が困難であるため、同一サイズの個別訓練ネットワークの精度よりも劣っている。
本稿では、s-netのように、各層(幅乗算器)に同じチャネルの割合の構造を採用する代わりに、プルーニングによって学習されるサブネットワーク構造を持つ、スリム化可能なプルーニングニューラルネットワーク(sp-net)を提案し、また、新しいプルーニング手順を提案する。
また,スリム化可能なチャネルソート (scs) を導入し, s-net および 0 padding match (zpm) のpruning と prune の残差構造を効率的に計算できるようにした。
SP-Netは任意の種類のチャネルプルーニング手法と組み合わせることができ、NASモデルのような複雑な処理や時間を要するアーキテクチャ検索は不要である。
S-Net上の同じFLOPのサブネットワークと比較して、SP-NetはResNet-50では1.2-1.5%、VGGNetでは0.9-4.4%、MobileNetV1では1.3-2.7%、ImageNetでは1.4-3.1%の精度向上を実現している。
さらに,本手法は,他のSOTAプルーニング法よりも優れ,ImageNetの実験結果により,様々なNASモデルと同等である。
コードはhttps://github.com/hideakikuratsu/sp-netで入手できる。
関連論文リスト
- Connection Reduction Is All You Need [0.10878040851637998]
実証的な研究によると、畳み込みレイヤの積み重ねだけではネットワークのトレーニングが良くならない。
レイヤを接続する2つの新しいアルゴリズムを提案する。
ShortNet1は、Baselineよりも5%低いテストエラー率と25%速い推論時間を持っている。
論文 参考訳(メタデータ) (2022-08-02T13:00:35Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - Searching for Network Width with Bilaterally Coupled Network [75.43658047510334]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
本稿では,Channel-Bench-Macroというマクロ構造に対するオープンソースのワイド・ベンチマークを提案し,ワイド・サーチ・アルゴリズムの比較を行った。
論文 参考訳(メタデータ) (2022-03-25T15:32:46Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - AdaPruner: Adaptive Channel Pruning and Effective Weights Inheritance [9.3421559369389]
本稿では,各レイヤのチャネル数とサブネットワークのワイツ継承基準を適応的に決定するプルーニングフレームワークを提案する。
AdaPrunerは、切断されたネットワークを素早く、正確に、効率的に得ることができる。
ImageNetでは、MobileNetV2の32.8%のFLOPを削減し、トップ1の精度は0.62%しか低下しない。
論文 参考訳(メタデータ) (2021-09-14T01:52:05Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - BWCP: Probabilistic Learning-to-Prune Channels for ConvNets via Batch
Whitening [63.081808698068365]
本稿では,畳み込みニューラルネットワーク(cnns)を高速化する確率的チャネルプルーニング手法を提案する。
以前は、訓練中の重要でないチャンネルを決定論的な方法でゼロにすることが多く、CNNの学習能力が低下し、最適なパフォーマンスが得られます。
本研究では, バッチホワイトニングチャネルプルーニング (BWCP) と呼ばれる確率ベースのプルーニングアルゴリズムを開発し, チャネルの活性化の確率をモデル化することにより, 重要でないチャネルを自動破棄する。
論文 参考訳(メタデータ) (2021-05-13T17:00:05Z) - Knapsack Pruning with Inner Distillation [11.04321604965426]
そこで本研究では,プルーンドネットワークの最終精度を最適化する新しいプルーニング手法を提案する。
ネットワークの高レベル構造を維持しながら、ネットワークチャネルを熟考する。
提案手法は,ResNetバックボーンを用いたImageNet,CIFAR-10,CIFAR-100における最先端のプルーニング結果をもたらす。
論文 参考訳(メタデータ) (2020-02-19T16:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。