論文の概要: AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2106.12379v1
- Date: Wed, 23 Jun 2021 13:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:31:06.348544
- Title: AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks
- Title(参考訳): AC/DC: ディープニューラルネットワークの交互圧縮/非圧縮訓練
- Authors: Alexandra Peste, Eugenia Iofinova, Adrian Vladu, Dan Alistarh
- Abstract要約: 本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
- 参考スコア(独自算出の注目度): 78.62086125399831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing computational requirements of deep neural networks (DNNs) have
led to significant interest in obtaining DNN models that are sparse, yet
accurate. Recent work has investigated the even harder case of sparse training,
where the DNN weights are, for as much as possible, already sparse to reduce
computational costs during training.
Existing sparse training methods are mainly empirical and often have lower
accuracy relative to the dense baseline. In this paper, we present a general
approach called Alternating Compressed/DeCompressed (AC/DC) training of DNNs,
demonstrate convergence for a variant of the algorithm, and show that AC/DC
outperforms existing sparse training methods in accuracy at similar
computational budgets; at high sparsity levels, AC/DC even outperforms existing
methods that rely on accurate pre-trained dense models. An important property
of AC/DC is that it allows co-training of dense and sparse models, yielding
accurate sparse-dense model pairs at the end of the training process. This is
useful in practice, where compressed variants may be desirable for deployment
in resource-constrained settings without re-doing the entire training flow, and
also provides us with insights into the accuracy gap between dense and
compressed models.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の計算要求の増大は、疎いが正確でないDNNモデルを得ることに大きな関心を惹き付けている。
最近の研究は、DNNの重量が可能な限り、訓練中の計算コストを減らすために既に不足しているスパーストレーニングのさらに難しいケースを調査している。
既存のスパーストレーニング法は主に経験的であり、しばしば密度の高いベースラインと比較して精度が低い。
本稿では,DNNのAlternating Compressed/DeCompressed (AC/DC) トレーニングと呼ばれる一般的な手法を提案し,アルゴリズムの変種に対する収束性を実証し,AC/DCが既存のスパーストレーニング手法を類似の計算予算で精度良く上回っていることを示す。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパースセンスモデルペアが得られることである。
これは実際に有用であり、圧縮された変種は、トレーニングフロー全体をやり直すことなく、リソース制約された設定に展開するのに好適であり、また、密集モデルと圧縮モデルの間の精度ギャップに関する洞察を提供する。
関連論文リスト
- A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and
Spatially for Efficient DNN Training [81.85361544720885]
アクティベーション、ウェイト、グラデーションの精度を徐々に高めるプログレッシブ分数量子化を統合したFracTrainを提案します。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - Procrustes: a Dataflow and Accelerator for Sparse Deep Neural Network
Training [0.5219568203653523]
我々は,まず,第1の訓練を行わず,第2の訓練を行ない,第2の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら,第1の訓練を行ない,第1の訓練を行ない,第2の訓練を行ないながら、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行ない、第2の訓練を行なう。
最先端のDNNアクセラレーターをスパーストレーニングサポートなしで使用した同等の未使用モデルのトレーニングと比較すると、Procrustesは最大3.26$times$少ないエネルギーを消費し、様々なモデルにわたって最大4$times$のスピードアップを提供する。
論文 参考訳(メタデータ) (2020-09-23T07:39:55Z) - Training Sparse Neural Networks using Compressed Sensing [13.84396596420605]
本研究では,プレニングとトレーニングを1ステップに組み合わせた圧縮センシングに基づく新しい手法の開発と試験を行う。
具体的には、トレーニング中の重みを適応的に重み付けした$ell1$のペナルティを利用して、スパースニューラルネットワークをトレーニングするために、正規化二重平均化(RDA)アルゴリズムの一般化と組み合わせる。
論文 参考訳(メタデータ) (2020-08-21T19:35:54Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。