論文の概要: Back to Basics: Efficient Network Compression via IMP
- arxiv url: http://arxiv.org/abs/2111.00843v1
- Date: Mon, 1 Nov 2021 11:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 16:22:24.580899
- Title: Back to Basics: Efficient Network Compression via IMP
- Title(参考訳): Back to Basics:IMPによる効率的なネットワーク圧縮
- Authors: Max Zimmer, Christoph Spiegel, Sebastian Pokutta
- Abstract要約: イテレーティブ・マグニチュード・プルーニング(IMP)は、ネットワーク・プルーニングにおける最も確立されたアプローチの1つである。
IMPは、トレーニングフェーズにスパーシフィケーションを組み込まないことで、最適以下の状態に達するとしばしば主張される。
再学習のためのSLRを用いたIMPは、最先端のプルーニング訓練手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 22.586474627159287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network pruning is a widely used technique for effectively compressing Deep
Neural Networks with little to no degradation in performance during inference.
Iterative Magnitude Pruning (IMP) is one of the most established approaches for
network pruning, consisting of several iterative training and pruning steps,
where a significant amount of the network's performance is lost after pruning
and then recovered in the subsequent retraining phase. While commonly used as a
benchmark reference, it is often argued that a) it reaches suboptimal states by
not incorporating sparsification into the training phase, b) its global
selection criterion fails to properly determine optimal layer-wise pruning
rates and c) its iterative nature makes it slow and non-competitive. In light
of recently proposed retraining techniques, we investigate these claims through
rigorous and consistent experiments where we compare IMP to
pruning-during-training algorithms, evaluate proposed modifications of its
selection criterion and study the number of iterations and total training time
actually required. We find that IMP with SLR for retraining can outperform
state-of-the-art pruning-during-training approaches without or with only little
computational overhead, that the global magnitude selection criterion is
largely competitive with more complex approaches and that only few retraining
epochs are needed in practice to achieve most of the sparsity-vs.-performance
tradeoff of IMP. Our goals are both to demonstrate that basic IMP can already
provide state-of-the-art pruning results on par with or even outperforming more
complex or heavily parameterized approaches and also to establish a more
realistic yet easily realisable baseline for future research.
- Abstract(参考訳): ネットワークプルーニング(Network pruning)は、ディープニューラルネットワークを推論時の性能劣化が少なく、効果的に圧縮する手法である。
イテレーティブ・マグニチュード・プルーニング(imp)は、ネットワークプルーニングの最も確立されたアプローチの1つであり、いくつかの反復的なトレーニングとプルーニングステップで構成されており、ネットワークのパフォーマンスのかなりの部分がプルーニング後に失われ、その後再トレーニングフェーズで回復される。
ベンチマーク参照として一般的に使用されるが、しばしば議論される。
a) 訓練段階にスパーシフィケーションを取り入れないことにより、準最適状態に達すること。
b) グローバル選択基準が最適層ワイドプルーニング率を適切に決定できないこと。
c) その反復的な性質は、遅く非競争的である。
最近提案された再訓練技術に照らして,impとpruning-during-trainingアルゴリズムを比較し,選択基準の修正案を評価し,実際に必要とされるイテレーション数と総トレーニング時間について検討した。
再学習のためのSLRを用いたIMPは,計算オーバーヘッドの少ない,あるいは少ない,最先端のpruning-during-trainingアプローチよりも優れており,大域的な選択基準は,より複雑なアプローチとほぼ競合するものであり,スパース性vのほとんどを達成するために実際に必要となるエポックはごくわずかである。
-IMPのパフォーマンストレードオフ。
我々の目標は、IMPが既に、より複雑でパラメータ化されたアプローチに匹敵する、あるいはさらに優れた、最先端のプルーニング結果を提供できることを示し、また、将来の研究のためのより現実的で容易に実現可能なベースラインを確立することである。
関連論文リスト
- Efficient Training of Deep Neural Operator Networks via Randomized Sampling [0.0]
ディープオペレータネットワーク(DeepNet)は、様々な科学的・工学的応用における複雑な力学のリアルタイム予測に成功している。
本稿では,DeepONetのトレーニングを取り入れたランダムサンプリング手法を提案する。
実験の結果,訓練中にトランクネットワーク入力にランダム化を組み込むことで,DeepONetの効率性と堅牢性が向上し,複雑な物理系のモデリングにおけるフレームワークの性能向上に期待できる道筋が得られた。
論文 参考訳(メタデータ) (2024-09-20T07:18:31Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Fantastic Weights and How to Find Them: Where to Prune in Dynamic Sparse
Training [58.47622737624532]
本研究では,プルーニング基準が動的スパーストレーニング(DST)性能に及ぼす影響について検討する。
その結果,研究手法のほとんどが同様の結果をもたらすことがわかった。
最高のパフォーマンスは、最も単純なテクニックであるマグニチュードベースのプルーニングによって主に与えられる。
論文 参考訳(メタデータ) (2023-06-21T12:43:55Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - Trainability Preserving Neural Structured Pruning [64.65659982877891]
本稿では,正規化型構造化プルーニング法であるTPP(Traiability Preserving pruning)を提案する。
TPPは線形ネットワーク上での地中動力学的等尺性回復法と競合する。
多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-25T21:15:47Z) - Prospect Pruning: Finding Trainable Weights at Initialization using
Meta-Gradients [36.078414964088196]
初期化時にニューラルネットワークをプルーニングすることで、元のネットワークの精度を保ったスパースモデルを見つけることができる。
現在の方法は、この最適化を可能にするには不十分であり、モデル性能の大幅な低下につながります。
提案するProspect Pruning(ProsPr)は,最適化の最初の数ステップを通じてメタグラディエントを用いて,どの重み付けを行うかを決定する。
本手法は,従来のプルーニング・アット・初期化手法と比較して,データの少ない1ショットで,様々な視覚分類タスクにおける最先端のプルーニング性能を実現する。
論文 参考訳(メタデータ) (2022-02-16T15:18:55Z) - Sparse Training via Boosting Pruning Plasticity with Neuroregeneration [79.78184026678659]
本研究では, プラスティック性の観点から, 訓練を通しての刈り込みの効果について検討した。
ゼロコスト神経再生(GraNet)と動的スパーストレーニング(DST)変異(GraNet-ST)を併用した段階的プラニング(gradual pruning)法を考案した。
おそらく最も印象的なのは、ImageNet上のResNet-50との大きなマージンで、さまざまな密集したスパースメソッドに対するスパース・ツー・スパーストレーニングのパフォーマンスを初めて向上させたことだ。
論文 参考訳(メタデータ) (2021-06-19T02:09:25Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - Pruning Filters while Training for Efficiently Optimizing Deep Learning
Networks [6.269700080380206]
深層ネットワークの重みを少なくするプルーニング技術が提案されている。
本研究では,訓練中に深層ネットワークのフィルタをプーンする動的プルーニング学習手法を提案する。
その結果, フィルタの50%をプルーニングすると, ほぼ精度の低下のない圧縮ネットワークが得られることがわかった。
論文 参考訳(メタデータ) (2020-03-05T18:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。