論文の概要: Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning
- arxiv url: http://arxiv.org/abs/2006.12139v1
- Date: Mon, 22 Jun 2020 10:57:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:53:51.490775
- Title: Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning
- Title(参考訳): タスク適応型メタプランニングによるニューラルネットワークの高速化
- Authors: Minyoung Song, Jaehong Yoon, Eunho Yang, Sung Ju Hwang
- Abstract要約: 既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
- 参考スコア(独自算出の注目度): 83.59005356327103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep neural networks are growing in size and being increasingly deployed
to more resource-limited devices, there has been a recent surge of interest in
network pruning methods, which aim to remove less important weights or
activations of a given network. A common limitation of most existing pruning
techniques, is that they require pre-training of the network at least once
before pruning, and thus we can benefit from reduction in memory and
computation only at the inference time. However, reducing the training cost of
neural networks with rapid structural pruning may be beneficial either to
minimize monetary cost with cloud computing or to enable on-device learning on
a resource-limited device. Recently introduced random-weight pruning approaches
can eliminate the needs of pretraining, but they often obtain suboptimal
performance over conventional pruning techniques and also does not allow for
faster training since they perform unstructured pruning. To overcome their
limitations, we propose Set-based Task-Adaptive Meta Pruning (STAMP), which
task-adaptively prunes a network pretrained on a large reference dataset by
generating a pruning mask on it as a function of the target dataset. To ensure
maximum performance improvements on the target task, we meta-learn the mask
generator over different subsets of the reference dataset, such that it can
generalize well to any unseen datasets within a few gradient steps of training.
We validate STAMP against recent advanced pruning methods on benchmark
datasets, on which it not only obtains significantly improved compression rates
over the baselines at similar accuracy, but also orders of magnitude faster
training speed.
- Abstract(参考訳): ディープニューラルネットワークのサイズが拡大し、ますますリソース制限のあるデバイスにデプロイされるようになるにつれて、ネットワークのプルーニング方法への関心が高まり、特定のネットワークの重要な重みやアクティベーションを減らすことを目的としている。
ほとんどの既存のプルーニングテクニックの一般的な制限は、プルーニングの前に少なくとも一度はネットワークを事前トレーニングする必要があるため、推論時にのみメモリと計算量を削減できることである。
しかし、急速な構造的刈り取りによるニューラルネットワークのトレーニングコストの削減は、クラウドコンピューティングによる金銭的コストの最小化や、リソース制限されたデバイス上でのデバイス上での学習を可能にするのに有用である。
最近導入されたランダム・ウェイト・プルーニング・アプローチは、事前訓練の必要性を排除できるが、従来のプルーニング技術よりも最適な性能を得ることが多く、非構造化プルーニングを行うため、より高速なトレーニングができない。
その限界を克服するため,我々は,大規模参照データセット上で事前トレーニングされたネットワークを対象データセットの機能としてpruning maskを生成し,タスク適応的にpruneするset-based task-adaptive meta pruning (stamp)を提案する。
目標タスクにおける最大パフォーマンス向上を確保するため、参照データセットの異なるサブセット上でマスク生成器をメタ学習し、トレーニングのいくつかの段階において、見当たらないデータセットに適切に一般化できるようにします。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証し、ベースラインに対する圧縮速度を同等の精度で向上するだけでなく、トレーニング速度の桁数も大幅に高速化する。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - Trainability Preserving Neural Structured Pruning [64.65659982877891]
本稿では,正規化型構造化プルーニング法であるTPP(Traiability Preserving pruning)を提案する。
TPPは線形ネットワーク上での地中動力学的等尺性回復法と競合する。
多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-07-25T21:15:47Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Back to Basics: Efficient Network Compression via IMP [22.586474627159287]
イテレーティブ・マグニチュード・プルーニング(IMP)は、ネットワーク・プルーニングにおける最も確立されたアプローチの1つである。
IMPは、トレーニングフェーズにスパーシフィケーションを組み込まないことで、最適以下の状態に達するとしばしば主張される。
再学習のためのSLRを用いたIMPは、最先端のプルーニング訓練手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-01T11:23:44Z) - When to Prune? A Policy towards Early Structural Pruning [27.91996628143805]
我々は,パフォーマンスを損なうことなく,できるだけ早期に訓練を行う政策を提案する。
我々の方法では、最先端のプルーニングに比べて1.4%の精度でトップ1の精度が向上し、GPUのトレーニングコストを2.4%削減する。
論文 参考訳(メタデータ) (2021-10-22T18:39:22Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Dense for the Price of Sparse: Improved Performance of Sparsely
Initialized Networks via a Subspace Offset [0.0]
我々は,0.01%のトレーニング可能なカーネルパラメータが残っている場合でも,情報伝達とトレーニング性を維持する新しいDCT+Sparse層アーキテクチャを導入する。
標準のスパース層からDCTとスパース層への切り替えは、ネットワークのストレージフットプリントを増大させず、小さな計算オーバーヘッドしか発生しません。
論文 参考訳(メタデータ) (2021-02-12T00:05:02Z) - Weight Pruning via Adaptive Sparsity Loss [31.978830843036658]
近年、最先端のディープニューラルネットワークを圧縮する手段として、プルーニングニューラルネットワークが注目を集めている。
本稿では,ネットワークパラメータを最小限の計算オーバーヘッドで効率的に学習する頑健な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-04T10:55:16Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。