論文の概要: Trainability Preserving Neural Structured Pruning
- arxiv url: http://arxiv.org/abs/2207.12534v1
- Date: Mon, 25 Jul 2022 21:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:15:06.733526
- Title: Trainability Preserving Neural Structured Pruning
- Title(参考訳): 神経構造プルーニングのトレーサビリティ
- Authors: Huan Wang and Yun Fu
- Abstract要約: 本稿では,正規化型構造化プルーニング法であるTPP(Traiability Preserving pruning)を提案する。
TPPは線形ネットワーク上での地中動力学的等尺性回復法と競合する。
多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 64.65659982877891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several recent works empirically find finetuning learning rate is critical to
the final performance in neural network structured pruning. Further researches
find that the network trainability broken by pruning answers for it, thus
calling for an urgent need to recover trainability before finetuning. Existing
attempts propose to exploit weight orthogonalization to achieve dynamical
isometry for improved trainability. However, they only work for linear MLP
networks. How to develop a filter pruning method that maintains or recovers
trainability and is scalable to modern deep networks remains elusive. In this
paper, we present trainability preserving pruning (TPP), a regularization-based
structured pruning method that can effectively maintain trainability during
sparsification. Specifically, TPP regularizes the gram matrix of convolutional
kernels so as to de-correlate the pruned filters from the kept filters. Beside
the convolutional layers, we also propose to regularize the BN parameters for
better preserving trainability. Empirically, TPP can compete with the
ground-truth dynamical isometry recovery method on linear MLP networks. On
non-linear networks (ResNet56/VGG19, CIFAR datasets), it outperforms the other
counterpart solutions by a large margin. Moreover, TPP can also work
effectively with modern deep networks (ResNets) on ImageNet, delivering
encouraging performance in comparison to many top-performing filter pruning
methods. To our best knowledge, this is the first approach that effectively
maintains trainability during pruning for the large-scale deep neural networks.
- Abstract(参考訳): 最近のいくつかの研究では、ニューラルネットワーク構造化プルーニングの最終性能に微調整学習率が不可欠であることが実証されている。
さらなる研究により、ネットワークのトレーサビリティは解答を刈り取ることで崩壊し、微調整前にトレーサビリティを回復する必要があることが判明した。
既存の試みは、トレーニング性を改善するために、重み直交化を利用して動的等長性を達成することを提案する。
しかし、それらは線形MLPネットワークでのみ動作する。
トレーサビリティを維持または回復し、現代のディープネットワークにスケーラブルなフィルタプルーニング方法の開発方法は、いまだに解明されていない。
本稿では,スパルシフィケーション時のトレーサビリティを効果的に維持できる正規化型構造プルーニング法であるトレーサビリティ保存プルーニング(tpp)を提案する。
具体的には、tppは畳み込み型カーネルのグラム行列を正則化し、プルーニングされたフィルタを保留されたフィルタから分離する。
畳み込み層に加えて、bnパラメータを正規化し、トレーサビリティを向上させることも提案する。
経験的に、TPPは線形MLPネットワーク上での地中動力学的等尺性回復法と競合することができる。
非線形ネットワーク(ResNet56/VGG19、CIFARデータセット)では、他のソリューションよりも大きなマージンで優れています。
さらに、TPPはImageNet上の最新のディープネットワーク(ResNets)とも効果的に連携でき、多くのトップパフォーマンスのフィルタプルーニング手法と比較して、優れたパフォーマンスを提供する。
私たちの知る限りでは、これは大規模ディープニューラルネットワークの刈り取り時のトレーニング性を効果的に維持する最初のアプローチです。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Learning a Consensus Sub-Network with Polarization Regularization and
One Pass Training [3.2214522506924093]
プルーニングスキームは、静的プルーニングのための反復的なトレーニングと微調整、動的プルーニンググラフの繰り返し計算によって、余分なオーバーヘッドを生み出す。
本稿では,より軽量なサブネットワークを学習するためのパラメータ解析手法を提案する。
CIFAR-10 と CIFAR-100 を用いた結果,分類精度が1% 未満の深層ネットワークにおける接続の50%を除去できることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:37:17Z) - Boosting Pruned Networks with Linear Over-parameterization [8.796518772724955]
構造化プルーニングは、高速な推論のためのチャネル(フィルタ)を減らし、実行時にフットプリントを低くすることで、ニューラルネットワークを圧縮する。
プルーニング後の精度を回復するため、細調整は通常、プルーニングネットワークに適用される。
そこで我々は,まず,細調整パラメータの数を増やすために,刈り込みネットワーク内のコンパクト層を線形に過剰にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T05:30:26Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Back to Basics: Efficient Network Compression via IMP [22.586474627159287]
イテレーティブ・マグニチュード・プルーニング(IMP)は、ネットワーク・プルーニングにおける最も確立されたアプローチの1つである。
IMPは、トレーニングフェーズにスパーシフィケーションを組み込まないことで、最適以下の状態に達するとしばしば主張される。
再学習のためのSLRを用いたIMPは、最先端のプルーニング訓練手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-01T11:23:44Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - Feature Flow Regularization: Improving Structured Sparsity in Deep
Neural Networks [12.541769091896624]
プルーニングはディープニューラルネットワーク(DNN)の冗長パラメータを除去するモデル圧縮法である
特徴フロー正則化(FFR)と呼ばれる特徴の進化という新たな視点から, 単純かつ効果的な正則化戦略を提案する。
VGGNets、CIFAR-10/100上のResNets、Tiny ImageNetデータセットによる実験では、FFRが非構造化と構造化の両方の空間性を大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2021-06-05T15:00:50Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z) - Pruning Filters while Training for Efficiently Optimizing Deep Learning
Networks [6.269700080380206]
深層ネットワークの重みを少なくするプルーニング技術が提案されている。
本研究では,訓練中に深層ネットワークのフィルタをプーンする動的プルーニング学習手法を提案する。
その結果, フィルタの50%をプルーニングすると, ほぼ精度の低下のない圧縮ネットワークが得られることがわかった。
論文 参考訳(メタデータ) (2020-03-05T18:05:17Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。