論文の概要: FreezeNet: Full Performance by Reduced Storage Costs
- arxiv url: http://arxiv.org/abs/2011.14087v1
- Date: Sat, 28 Nov 2020 08:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:21:09.348442
- Title: FreezeNet: Full Performance by Reduced Storage Costs
- Title(参考訳): FreezeNet: ストレージコスト削減によるフルパフォーマンス
- Authors: Paul Wimmer, Jens Mehnert and Alexandru Condurache
- Abstract要約: プルーニングはパラメータを0に設定することでスパースネットワークを生成する。
我々は、追加のストレージコストを加えることなく、トレーニング前に適用したワンショットプルーニング法を改善した。
我々はFreezeNetsが特に極端凍結速度で良い結果を得ることを示す。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pruning generates sparse networks by setting parameters to zero. In this work
we improve one-shot pruning methods, applied before training, without adding
any additional storage costs while preserving the sparse gradient computations.
The main difference to pruning is that we do not sparsify the network's weights
but learn just a few key parameters and keep the other ones fixed at their
random initialized value. This mechanism is called freezing the parameters.
Those frozen weights can be stored efficiently with a single 32bit random seed
number. The parameters to be frozen are determined one-shot by a single for-
and backward pass applied before training starts. We call the introduced method
FreezeNet. In our experiments we show that FreezeNets achieve good results,
especially for extreme freezing rates. Freezing weights preserves the gradient
flow throughout the network and consequently, FreezeNets train better and have
an increased capacity compared to their pruned counterparts. On the
classification tasks MNIST and CIFAR-10/100 we outperform SNIP, in this setting
the best reported one-shot pruning method, applied before training. On MNIST,
FreezeNet achieves 99.2% performance of the baseline LeNet-5-Caffe
architecture, while compressing the number of trained and stored parameters by
a factor of x 157.
- Abstract(参考訳): プルーニングはパラメータをゼロにすることでスパースネットワークを生成する。
本研究では,スパース勾配計算を保ちながら,追加のストレージコストを加えることなく,トレーニング前に適用したワンショットプルーニング法を改善する。
プルーニングの主な違いは、ネットワークの重みをスパースするのではなく、いくつかの重要なパラメータを学習し、他のパラメータをランダムな初期化値に固定することです。
この機構はパラメータの凍結と呼ばれる。
凍結した重量は、32ビットのランダムなシード番号で効率的に保存できる。
凍結すべきパラメータは、トレーニング開始前に1つのフォワードとバックワードパスで決定される。
導入されたメソッドをFreezeNetと呼ぶ。
我々の実験では、特に極端凍結速度において、FreezeNetsは良い結果が得られることを示した。
凍結重みはネットワーク全体の勾配の流れを保ち、その結果、フリーズネットはよりよく訓練し、刈り取ったものに比べて容量を増加させる。
分類タスク MNIST と CIFAR-10/100 では、SNIP よりも優れており、この設定ではトレーニング前に適用された最も優れたワンショットプルーニング法である。
MNISTでは、FreezeNetはベースラインのLeNet-5-Caffeアーキテクチャの99.2%のパフォーマンスを達成し、トレーニングされたパラメータと格納されたパラメータの数をx 157で圧縮した。
関連論文リスト
- Sparser Training for On-Device Recommendation Systems [50.74019319100728]
動的スパーストレーニング(DST)に基づく軽量埋め込み手法であるスパースRecを提案する。
これは、重要なベクトルの部分集合をサンプリングすることによって、バックプロパゲーション中の密度勾配を避ける。
論文 参考訳(メタデータ) (2024-11-19T03:48:48Z) - DRIVE: Dual Gradient-Based Rapid Iterative Pruning [2.209921757303168]
現代のディープニューラルネットワーク(DNN)は、数百万のパラメータで構成され、トレーニングと推論中にハイパフォーマンスコンピューティングを必要とする。
学習後推論の合理化に焦点をあてた従来の刈り込み手法は, 訓練前の刈り込みによって早期に疎水性を活用する試みが近年行われている。
創発に固有のランダム性に対処するために,初期エポックに対する濃密なトレーニングを活用するDual Gradient-Based Rapid Iterative Pruning (DRIVE)を提案する。
論文 参考訳(メタデータ) (2024-04-01T20:44:28Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - What to Prune and What Not to Prune at Initialization [0.0]
トレーニング後のドロップアウトベースのアプローチは、高いスパシティを実現する。
ネットワークの計算コストのスケーリングに関しては,初期化プルーニングの方が有効だ。
目標は、パフォーマンスを維持しながら、より高い疎性を達成することです。
論文 参考訳(メタデータ) (2022-09-06T03:48:10Z) - Dimensionality Reduced Training by Pruning and Freezing Parts of a Deep
Neural Network, a Survey [69.3939291118954]
最先端のディープラーニングモデルには、何十億にも達するパラメータカウントがある。そのようなモデルのトレーニング、保存、転送は、エネルギーと時間を要するため、コストがかかる。
モデル圧縮は、ストレージと転送コストを低減し、フォワードおよび/または後方パスでの計算数を減少させることで、トレーニングをより効率的にすることができる。
この研究は、トレーニング全体を通してディープラーニングモデルでトレーニングされた重量を減らす方法に関する調査である。
論文 参考訳(メタデータ) (2022-05-17T05:37:08Z) - End-to-End Sensitivity-Based Filter Pruning [49.61707925611295]
本稿では,各層間のフィルタの重要度を学習するための感度に基づくフィルタプルーニングアルゴリズム(SbF-Pruner)を提案する。
提案手法はフィルタ重みからスコアを学習し,各層のフィルタ間の相関を考慮できる。
論文 参考訳(メタデータ) (2022-04-15T10:21:05Z) - Sparse Training via Boosting Pruning Plasticity with Neuroregeneration [79.78184026678659]
本研究では, プラスティック性の観点から, 訓練を通しての刈り込みの効果について検討した。
ゼロコスト神経再生(GraNet)と動的スパーストレーニング(DST)変異(GraNet-ST)を併用した段階的プラニング(gradual pruning)法を考案した。
おそらく最も印象的なのは、ImageNet上のResNet-50との大きなマージンで、さまざまな密集したスパースメソッドに対するスパース・ツー・スパーストレーニングのパフォーマンスを初めて向上させたことだ。
論文 参考訳(メタデータ) (2021-06-19T02:09:25Z) - Pruning Randomly Initialized Neural Networks with Iterative
Randomization [7.676965708017808]
我々は、反復的に重み値(IteRand)をランダムに生成する新しい枠組みを導入する。
理論的には、我々のフレームワークで近似定理を証明し、ランダム化演算がパラメータの必要な数を減らすのに有効であることを示す。
論文 参考訳(メタデータ) (2021-06-17T06:32:57Z) - Layer Pruning via Fusible Residual Convolutional Block for Deep Neural
Networks [15.64167076052513]
レイヤプルーニングは、同じFLOPとパラメータの数でプルーニングされる場合、推論時間と実行時のメモリ使用量が少なくなる。
残差畳み込みブロック(ResConv)を用いた簡単な層切断法を提案する。
本手法は, 異なるデータセット上での最先端技術に対する圧縮と加速の優れた性能を実現する。
論文 参考訳(メタデータ) (2020-11-29T12:51:16Z) - Progressive Skeletonization: Trimming more fat from a network at
initialization [76.11947969140608]
本稿では,接続感度が最大となるスケルトン化ネットワークを提案する。
次に、目的を最大化する2つの近似手順を提案する。
提案手法は, 高い刈り込みレベルにおいて, 性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-06-16T11:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。