論文の概要: Structured Pruning is All You Need for Pruning CNNs at Initialization
- arxiv url: http://arxiv.org/abs/2203.02549v1
- Date: Fri, 4 Mar 2022 19:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 11:00:20.434467
- Title: Structured Pruning is All You Need for Pruning CNNs at Initialization
- Title(参考訳): 構造化プルーニングは、初期化時のCNNのプルーニングに必要なもの
- Authors: Yaohui Cai, Weizhe Hua, Hongzheng Chen, G. Edward Suh, Christopher De
Sa, Zhiru Zhang
- Abstract要約: プルーニングは畳み込みニューラルネットワーク(CNN)のモデルサイズと計算コストを削減する一般的な手法である
ハードウェア効率の良いモデル圧縮方式であるPreCroppingを提案する。
重み付けと比較して, 提案手法は, 精度を犠牲にすることなく, 記憶と計算の両面において規則的で密度が高い。
- 参考スコア(独自算出の注目度): 38.88730369884401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pruning is a popular technique for reducing the model size and computational
cost of convolutional neural networks (CNNs). However, a slow retraining or
fine-tuning procedure is often required to recover the accuracy loss caused by
pruning. Recently, a new research direction on weight pruning,
pruning-at-initialization (PAI), is proposed to directly prune CNNs before
training so that fine-tuning or retraining can be avoided. While PAI has shown
promising results in reducing the model size, existing approaches rely on
fine-grained weight pruning which requires unstructured sparse matrix
computation, making it difficult to achieve real speedup in practice unless the
sparsity is very high.
This work is the first to show that fine-grained weight pruning is in fact
not necessary for PAI. Instead, the layerwise compression ratio is the main
critical factor to determine the accuracy of a CNN model pruned at
initialization. Based on this key observation, we propose PreCropping, a
structured hardware-efficient model compression scheme. PreCropping directly
compresses the model at the channel level following the layerwise compression
ratio. Compared to weight pruning, the proposed scheme is regular and dense in
both storage and computation without sacrificing accuracy. In addition, since
PreCropping compresses CNNs at initialization, the computational and memory
costs of CNNs are reduced for both training and inference on commodity
hardware. We empirically demonstrate our approaches on several modern CNN
architectures, including ResNet, ShuffleNet, and MobileNet for both CIFAR-10
and ImageNet.
- Abstract(参考訳): プルーニングは畳み込みニューラルネットワーク(CNN)のモデルサイズと計算コストを削減するための一般的な手法である。
しかしながら、刈り取りによる精度の低下を回復するために、遅い再訓練または微調整の手順がしばしば必要となる。
近年,CNNの微調整や再訓練が避けられるように,PAI(Pruning-at-initialization)という新たな研究方向が提案されている。
PAIはモデルサイズの削減に有望な結果を示してきたが、既存のアプローチでは未構造化のスパース行列計算を必要とするきめ細かい重み付けに依存しており、スパース率が非常に高くない限り実際の高速化は困難である。
この研究は、PAIには粒度の細かい刈り取りが実際には必要ないことを示す最初のものである。
代わりに、階層圧縮比が初期化時にプルーニングされたCNNモデルの精度を決定する主要な要因である。
そこで本研究では,ハードウェア効率の良いモデル圧縮方式であるPreCroppingを提案する。
PreCroppingはレイヤーワイド圧縮比に従ってチャネルレベルでモデルを直接圧縮する。
重みの刈り取りと比較すると,提案手法は正確性を犠牲にすることなく,ストレージと計算の両方において規則的かつ高密度である。
さらに、PreCroppingは初期化時にCNNを圧縮するため、コモディティハードウェアのトレーニングと推論の両方において、CNNの計算コストとメモリコストが削減される。
我々は、CIFAR-10とImageNetの両方のResNet、ShuffleNet、MobileNetを含む、現代のCNNアーキテクチャに対する我々のアプローチを実証的に実証した。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - CrAM: A Compression-Aware Minimizer [103.29159003723815]
本稿では、CrAMと呼ばれる新しい圧縮対応最小化器を提案し、最適化ステップを原則的に修正する。
CrAMは、標準のSGD/アダムベースベースラインよりも精度が高い密度のモデルを生成するが、重量計算では安定である。
CrAMは、転送学習のためにうまく機能するスパースモデルを生成することができ、GPUハードウェアでサポートされている半構造化の2:4プルーニングパターンでも機能する。
論文 参考訳(メタデータ) (2022-07-28T16:13:28Z) - CHEX: CHannel EXploration for CNN Model Compression [47.3520447163165]
本稿では,これらの問題を是正するために,CHEXと呼ばれる新しいチャネル探索手法を提案する。
CheXはトレーニングプロセスを通じてチャネルを繰り返しプーンして再成長させ、重要なチャネルを早期にプルーニングするリスクを低減させる。
CHEXは様々なコンピュータビジョンタスクにおいて,多様なCNNアーキテクチャのFLOPを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2022-03-29T17:52:41Z) - ACP: Automatic Channel Pruning via Clustering and Swarm Intelligence
Optimization for CNN [6.662639002101124]
近年、畳み込みニューラルネットワーク(CNN)はより深く広がっています。
既存のマグニチュードベースの切断方法は効率的ですが、圧縮ネットワークのパフォーマンスは予測不可能です。
新規な自動チャネル切断法(ACP)を提案する。
ACPは3つの異なる分類データセットに基づいていくつかの最先端CNNに対して評価される。
論文 参考訳(メタデータ) (2021-01-16T08:56:38Z) - UCP: Uniform Channel Pruning for Deep Convolutional Neural Networks
Compression and Acceleration [24.42067007684169]
深部CNNを創出するための一様チャネルプルーニング(UCP)手法を提案する。
それらに関連する畳み込みカーネルを含む重要でないチャネルは直接プルーニングされる。
CIFAR-10, CIFAR-100, ILSVRC-2012 を用いて画像分類を行った。
論文 参考訳(メタデータ) (2020-10-03T01:51:06Z) - Improving Network Slimming with Nonconvex Regularization [8.017631543721684]
畳み込みニューラルネットワーク(CNN)は、様々なコンピュータビジョンタスクの強力なモデルとなるために開発された。
最先端のCNNの多くは直接デプロイすることはできない。
CNNを圧縮する簡単な方法が提案されている。
論文 参考訳(メタデータ) (2020-10-03T01:04:02Z) - ResRep: Lossless CNN Pruning via Decoupling Remembering and Forgetting [105.97936163854693]
本稿では,畳み込み層の幅(出力チャネル数)を小さくすることで,CNNをスリム化するResRepを提案する。
記憶と忘れの独立性に関する神経生物学の研究から着想を得て,CNNを記憶部分と忘れ部分にパラメータ化することを提案する。
私たちは、記憶と忘れ物を、より狭いレイヤで元のアーキテクチャにマージします。
論文 参考訳(メタデータ) (2020-07-07T07:56:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。