論文の概要: Structured Directional Pruning via Perturbation Orthogonal Projection
- arxiv url: http://arxiv.org/abs/2107.05328v1
- Date: Mon, 12 Jul 2021 11:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:12:44.822214
- Title: Structured Directional Pruning via Perturbation Orthogonal Projection
- Title(参考訳): 摂動直交射影による構造方向プルーニング
- Authors: YinchuanLi, XiaofengLiu, YunfengShao, QingWang and YanhuiGeng
- Abstract要約: より合理的なアプローチは、NISTによって発見された平坦な最小の谷に沿ってスパース最小化器を見つけることである。
平坦な最小の谷に摂動を投射する構造的指向性プルーニングを提案する。
実験の結果,VGG16では93.97%,CIFAR-10タスクでは再トレーニングを行なわず,最先端のプルーニング精度が得られた。
- 参考スコア(独自算出の注目度): 13.704348351073147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured pruning is an effective compression technique to reduce the
computation of neural networks, which is usually achieved by adding
perturbations to reduce network parameters at the cost of slightly increasing
training loss. A more reasonable approach is to find a sparse minimizer along
the flat minimum valley found by optimizers, i.e. stochastic gradient descent,
which keeps the training loss constant. To achieve this goal, we propose the
structured directional pruning based on orthogonal projecting the perturbations
onto the flat minimum valley. We also propose a fast solver sDprun and further
prove that it achieves directional pruning asymptotically after sufficient
training. Experiments using VGG-Net and ResNet on CIFAR-10 and CIFAR-100
datasets show that our method obtains the state-of-the-art pruned accuracy
(i.e. 93.97% on VGG16, CIFAR-10 task) without retraining. Experiments using
DNN, VGG-Net and WRN28X10 on MNIST, CIFAR-10 and CIFAR-100 datasets demonstrate
our method performs structured directional pruning, reaching the same minimum
valley as the optimizer.
- Abstract(参考訳): 構造化プルーニング(structured pruning)は、ニューラルネットワークの計算を減らすための効果的な圧縮技術であり、トレーニング損失をわずかに増加させるコストで、ネットワークパラメータを減らすために摂動を追加することで達成される。
より合理的なアプローチは、オプティマイザに見られる平らな最小の谷に沿ってスパース最小値を見つけることである。
確率的勾配降下 トレーニング損失を一定に保つ。
この目的を達成するために, 平らな最小谷に摂動を直交的に投影する構造的方向プルーニングを提案する。
また, 高速解法 sDprun を提案し, 十分な訓練後, 漸近的に方向定式化を実現することを証明した。
CIFAR-10およびCIFAR-100データセット上でのVGG-NetとResNetを用いた実験により,本手法が最先端のプルーンド精度(すなわち精度)を得ることを示す。
93.97%(VGG16、CIFAR-10)の再訓練なし。
MNIST, CIFAR-10, CIFAR-100データセット上でのDNN, VGG-Net, WRN28X10を用いた実験により, 本手法が最適化器と同じ最小の谷に達することを実証した。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - DRIVE: Dual Gradient-Based Rapid Iterative Pruning [2.209921757303168]
現代のディープニューラルネットワーク(DNN)は、数百万のパラメータで構成され、トレーニングと推論中にハイパフォーマンスコンピューティングを必要とする。
学習後推論の合理化に焦点をあてた従来の刈り込み手法は, 訓練前の刈り込みによって早期に疎水性を活用する試みが近年行われている。
創発に固有のランダム性に対処するために,初期エポックに対する濃密なトレーニングを活用するDual Gradient-Based Rapid Iterative Pruning (DRIVE)を提案する。
論文 参考訳(メタデータ) (2024-04-01T20:44:28Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - AUTOSPARSE: Towards Automated Sparse Training of Deep Neural Networks [2.6742343015805083]
本稿では,ニューラルネットワーク内に存在する空間の均一分布を探索するグラディエント・アナリング(GA)を提案する。
GAは、余剰を誘導する正規化を必要とせずに、余剰と正確性の間のエレガントなトレードオフを提供する。
GAと最新の学習可能なプルーニング手法を統合し、AutoSparseと呼ばれる自動スパーストレーニングアルゴリズムを作成する。
論文 参考訳(メタデータ) (2023-04-14T06:19:07Z) - Dynamic Sparse Training via Balancing the Exploration-Exploitation
Trade-off [19.230329532065635]
スパーストレーニングは、モデルサイズを減らすことで、トレーニングコストを大幅に削減する可能性がある。
既存のスパーストレーニング方法は、主にランダムベースまたはグリーディベースのドロップ・アンド・グロー戦略を使用する。
本研究では,動的スパース学習をスパース接続探索問題として考察する。
実験の結果,提案手法により得られたスパースモデル(最大98%のスパース)は,SOTAスパース訓練法より優れていた。
論文 参考訳(メタデータ) (2022-11-30T01:22:25Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Taming GANs with Lookahead-Minmax [63.90038365274479]
MNIST, SVHN, CIFAR-10, ImageNetによる実験結果から, Lookahead-minmaxとAdam, Exgradientの併用が明らかとなった。
30倍のパラメータと16倍のミニバッチを使用して、クラスラベルを使わずに12.19のFIDを得ることにより、CIFAR-10上でクラス依存のBigGANのパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2020-06-25T17:13:23Z) - Directional Pruning of Deep Neural Networks [26.41161344079131]
勾配降下 (SGD) はしばしばトレーニング損失において平坦な最小の谷を見出す。
そこで我々は,その平坦な領域内あるいは近辺のスパース最小化器を探索する新しい方向決定法を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:53:11Z) - TRP: Trained Rank Pruning for Efficient Deep Neural Networks [69.06699632822514]
低位近似とトレーニングを交互に行うTrated Rank Pruning (TRP)を提案する。
サブ段階降下により最適化された核正則化を利用して、TRPの低位化をさらに促進する。
TRPトレーニングネットワークは本質的に低ランク構造であり、無視可能な性能損失と近似される。
論文 参考訳(メタデータ) (2020-04-30T03:37:36Z) - Activation Density driven Energy-Efficient Pruning in Training [2.222917681321253]
本研究では,トレーニング中にネットワークをリアルタイムでプーンする新しいプルーニング手法を提案する。
ベースラインネットワークに匹敵する精度で、非常に疎いネットワークを得る。
論文 参考訳(メタデータ) (2020-02-07T18:34:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。