論文の概要: A Unified DNN Weight Compression Framework Using Reweighted Optimization
Methods
- arxiv url: http://arxiv.org/abs/2004.05531v1
- Date: Sun, 12 Apr 2020 02:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-14 04:55:45.716701
- Title: A Unified DNN Weight Compression Framework Using Reweighted Optimization
Methods
- Title(参考訳): 重み付け最適化手法を用いた統一DNN重み圧縮フレームワーク
- Authors: Tianyun Zhang, Xiaolong Ma, Zheng Zhan, Shanglin Zhou, Minghai Qin,
Fei Sun, Yen-Kuang Chen, Caiwen Ding, Makan Fardad and Yanzhi Wang
- Abstract要約: 指定された制約に縛られた動的に更新された正規化項を持つ統合DNN重み決定フレームワークを提案する。
また、異なるDNN圧縮タスクを組み合わせるための統合フレームワークにもメソッドを拡張します。
- 参考スコア(独自算出の注目度): 31.869228048294445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the large model size and intensive computation requirement of deep
neural networks (DNNs), weight pruning techniques have been proposed and
generally fall into two categories, i.e., static regularization-based pruning
and dynamic regularization-based pruning. However, the former method currently
suffers either complex workloads or accuracy degradation, while the latter one
takes a long time to tune the parameters to achieve the desired pruning rate
without accuracy loss. In this paper, we propose a unified DNN weight pruning
framework with dynamically updated regularization terms bounded by the
designated constraint, which can generate both non-structured sparsity and
different kinds of structured sparsity. We also extend our method to an
integrated framework for the combination of different DNN compression tasks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の大規模モデルサイズと集約的な計算要求に対処するために、重み付け法が提案され、一般に静的正規化に基づくプルーニングと動的正規化に基づくプルーニングという2つのカテゴリに分類される。
しかし, 従来の手法では, 複雑なワークロードや精度劣化に悩まされており, 後者ではパラメータを調整して, 精度損失を伴わずに所望のプルーニング率を達成するのに長い時間がかかる。
本稿では,指定された制約に縛られた動的に更新された正規化項を持つ統一DNN重み決定フレームワークを提案し,非構造的疎さと異なる種類の構造的疎さを両立させることができる。
また、異なるDNN圧縮タスクを組み合わせるための統合フレームワークにもメソッドを拡張します。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Only Train Once: A One-Shot Neural Network Training And Pruning
Framework [31.959625731943675]
構造化プルーニング(Structured pruning)は、リソース制約のあるデバイスにディープニューラルネットワーク(DNN)をデプロイする際に一般的に使用されるテクニックである。
我々は,DNNが競争性能と,OTO(Not-Train-Once)によるFLOPの大幅な削減に敏感なフレームワークを提案する。
OTOには2つのキーが含まれている: (i) DNNのパラメータをゼロ不変群に分割し、出力に影響を与えることなくゼロ群をプルークすることができる; (ii)ゼロ群をプロモートするために、構造化画像最適化アルゴリズムであるHalf-Space Projected (HSPG)を定式化する。
OTOの有効性を示すために、私たちはトレーニングとトレーニングを行います。
論文 参考訳(メタデータ) (2021-07-15T17:15:20Z) - Better Training using Weight-Constrained Stochastic Dynamics [0.0]
我々は、トレーニングを通してディープニューラルネットワークのパラメータ空間を制御するために制約を用いる。
カスタマイズされた適切な設計の制約を使用することで、消滅/展開の問題を減らすことができる。
グラデーションランゲヴィンフレームワークに制約を効率的に組み込むための一般的なアプローチを提供する。
論文 参考訳(メタデータ) (2021-06-20T14:41:06Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities [80.06422693778141]
異なる粒度(重み、カーネル、フィルタ/フィーチャーマップ)での刈り取りを容易にするフレキシブルな新しい刈り取り機構を提案する。
このアルゴリズムをDPP(Dynamic Probabilistic Pruning)と呼ぶ。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
論文 参考訳(メタデータ) (2021-05-26T17:01:52Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - SS-Auto: A Single-Shot, Automatic Structured Weight Pruning Framework of
DNNs with Ultra-High Efficiency [42.63352504047665]
本稿では,構造的重み付けの限界を緩和する枠組みを提案する。
提案手法は精度を保ちながら超高速を実現することができる。
CIFARAR-100データセットの実験により、提案したフレームワークが超高精度に実現できることが示された。
論文 参考訳(メタデータ) (2020-01-23T22:45:02Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。