論文の概要: Enabling Retrain-free Deep Neural Network Pruning using Surrogate
Lagrangian Relaxation
- arxiv url: http://arxiv.org/abs/2012.10079v2
- Date: Thu, 25 Mar 2021 04:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:22:43.158404
- Title: Enabling Retrain-free Deep Neural Network Pruning using Surrogate
Lagrangian Relaxation
- Title(参考訳): サロゲートラグランジアン緩和を用いたリトレインフリーディープニューラルネットワークプルーニングの実現
- Authors: Deniz Gurevin, Shanglin Zhou, Lynn Pepin, Bingbing Li, Mikhail Bragin,
Caiwen Ding, Fei Miao
- Abstract要約: サロゲート・ラグランジアン・リラクゼーション(SLR)に基づく体系的な軽量化最適化手法を開発。
SLRは、同じ精度で最先端技術よりも高い圧縮率を達成する。
再学習の予算が限られているため,本手法はモデル精度を迅速に回復する。
- 参考スコア(独自算出の注目度): 2.691929135895278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network pruning is a widely used technique to reduce computation cost and
model size for deep neural networks. However, the typical three-stage pipeline,
i.e., training, pruning and retraining (fine-tuning) significantly increases
the overall training trails. In this paper, we develop a systematic
weight-pruning optimization approach based on Surrogate Lagrangian relaxation
(SLR), which is tailored to overcome difficulties caused by the discrete nature
of the weight-pruning problem while ensuring fast convergence. We further
accelerate the convergence of the SLR by using quadratic penalties. Model
parameters obtained by SLR during the training phase are much closer to their
optimal values as compared to those obtained by other state-of-the-art methods.
We evaluate the proposed method on image classification tasks, i.e., ResNet-18
and ResNet-50 using ImageNet, and ResNet-18, ResNet-50 and VGG-16 using
CIFAR-10, as well as object detection tasks, i.e., YOLOv3 and YOLOv3-tiny using
COCO 2014 and Ultra-Fast-Lane-Detection using TuSimple lane detection dataset.
Experimental results demonstrate that our SLR-based weight-pruning optimization
approach achieves higher compression rate than state-of-the-arts under the same
accuracy requirement. It also achieves a high model accuracy even at the
hard-pruning stage without retraining (reduces the traditional three-stage
pruning to two-stage). Given a limited budget of retraining epochs, our
approach quickly recovers the model accuracy.
- Abstract(参考訳): ネットワークプルーニングは、ディープニューラルネットワークの計算コストとモデルサイズの削減に広く用いられている手法である。
しかし、典型的な3段階パイプライン、すなわち、訓練、刈り取り、再訓練(微調整)は、トレーニング全体のパスを著しく増加させる。
本稿では,高速収束を確保しつつ,重み付き問題の離散的性質に起因する困難を克服するために調整されたslr(surrogate lagrangian relaxation)に基づく体系的重み付き最適化手法を提案する。
我々はさらに2次罰則を用いてSLRの収束を加速する。
訓練期間中にSLRが取得したモデルパラメータは、他の最先端手法と比較すると、その最適値にかなり近い。
我々は,イメージネットを用いたResNet-18,ResNet-50,CIFAR-10を用いたResNet-50,ResNet-50,VGG-16,COCO 2014を用いたYOLOv3およびYOLOv3-tiny,TuSimpleレーン検出データセットを用いたUltra-Fast-Lane-Detectionなどの画像分類タスクについて評価を行った。
実験結果から,SLRに基づく重み付け最適化手法は,同じ精度で,最先端技術よりも高い圧縮率を実現することが示された。
また、再訓練せずにハードプルーニング段階においても高いモデル精度を達成する(従来の3段プルーニングを2段に還元する)。
再学習の予算が限られているため,本手法はモデル精度を迅速に回復する。
関連論文リスト
- Surrogate Lagrangian Relaxation: A Path To Retrain-free Deep Neural
Network Pruning [9.33753001494221]
ネットワークプルーニングは、ディープニューラルネットワークの計算コストとモデルサイズの削減に広く用いられている手法である。
本稿では,サロゲートラグランジアン緩和に基づく体系的な重み付け最適化手法を開発する。
論文 参考訳(メタデータ) (2023-04-08T22:48:30Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Pruning Convolutional Filters using Batch Bridgeout [14.677724755838556]
最先端のコンピュータビジョンモデルでは、トレーニングセットに適合するために必要なパラメータ数がはるかに多いため、能力が急速に向上している。
これにより最適化と一般化性能が向上する。
推論コストを削減するために、トレーニングされたニューラルネットワークの畳み込みフィルタを切断することで、推論中の実行時のメモリと計算要求を削減できる。
本稿では,ニューラルネットワークの性能低下を最小限に抑え,効率よく刈り取ることができるようにトレーニングするために,スパシティ誘導正規化スキームであるBatch Bridgeoutを提案する。
論文 参考訳(メタデータ) (2020-09-23T01:51:47Z) - Holistic Filter Pruning for Efficient Deep Neural Networks [25.328005340524825]
HFP(Holistic Filter Pruning)は、実装が容易で正確なプルーニング率の特定が可能な、一般的なDNNトレーニングのための新しいアプローチである。
各種実験において,CIFAR-10 と ImageNet のトレーニングと最先端性能について考察した。
論文 参考訳(メタデータ) (2020-09-17T09:23:36Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。