論文の概要: DIVISION: Memory Efficient Training via Dual Activation Precision
- arxiv url: http://arxiv.org/abs/2208.04187v5
- Date: Mon, 22 May 2023 05:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 05:54:28.053538
- Title: DIVISION: Memory Efficient Training via Dual Activation Precision
- Title(参考訳): 分割:デュアルアクティベーション精度によるメモリ効率のよいトレーニング
- Authors: Guanchu Wang and Zirui Liu and Zhimeng Jiang and Ninghao Liu and Na
Zou and Xia Hu
- Abstract要約: 最先端の研究は、量子化ビット幅の探索とトレーニングを組み合わせることで、手順を複雑にし、透明性を損なう。
そこで本研究では,DNNトレーニングを簡易かつ効果的に圧縮する手法を提案する。
実験結果によると、DIVISIONは10倍以上のアクティベーションマップの圧縮や、モデルの精度を損なうことなく、競争訓練のスループットなど、最先端の手法よりも総合的な性能を示している。
- 参考スコア(独自算出の注目度): 60.153754740511864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activation compressed training provides a solution towards reducing the
memory cost of training deep neural networks~(DNNs). However, state-of-the-art
work combines a search of quantization bit-width with the training, which makes
the procedure complicated and less transparent. To this end, we propose a
simple and effective method to compress DNN training. Our method is motivated
by an instructive observation: DNN backward propagation mainly utilizes the
low-frequency component (LFC) of the activation maps, while the majority of
memory is for caching the high-frequency component (HFC) during the training.
This indicates the HFC of activation maps is highly redundant and compressible
during DNN training, which inspires our proposed Dual Activation Precision
(DIVISION). During the training, DIVISION preserves the high-precision copy of
LFC and compresses the HFC into a light-weight copy with low numerical
precision. This can significantly reduce the memory cost without negatively
affecting the precision of backward propagation such that DIVISION maintains
competitive model accuracy. Experiment results show DIVISION has better
comprehensive performance than state-of-the-art methods, including over 10x
compression of activation maps and competitive training throughput, without
loss of model accuracy.
- Abstract(参考訳): アクティベーション圧縮トレーニングは、ディープニューラルネットワークをトレーニングする際のメモリコストを削減できるソリューションを提供する(DNN)。
しかし、最先端の研究は量子化ビット幅の探索とトレーニングを組み合わせることで、手順が複雑で透明性が低い。
そこで本研究では,DNNトレーニングを簡易かつ効果的に圧縮する手法を提案する。
dnnの後方伝播は主にアクティベーションマップの低周波成分(lfc)を利用しており、メモリの大部分はトレーニング中に高周波成分(hfc)をキャッシュする。
これは、dnnトレーニング中に活性化マップのhfcが高度に冗長で圧縮可能であり、提案するデュアルアクティベーション精度 (division) を刺激することを示している。
トレーニング中、DIVISIONはLFCの高精度コピーを保存し、HFCを低い数値精度で軽量コピーに圧縮する。
これにより、ディビジョンが競合モデル精度を維持するように後方伝播の精度に悪影響を及ぼすことなく、メモリコストを大幅に削減することができる。
実験の結果,アクティベーションマップの10倍以上の圧縮や,モデルの精度を損なうことなく競争力のあるトレーニングスループットなど,最先端の手法よりも総合的な性能が向上した。
関連論文リスト
- Towards Memory- and Time-Efficient Backpropagation for Training Spiking
Neural Networks [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングのためのエネルギー効率の高いモデルである。
本研究では,学習効率を大幅に向上させつつ,高い性能を達成できる空間学習時間(SLTT)法を提案する。
BPTTと比較して, メモリコストとトレーニング時間は, それぞれ70%以上, 50%以上削減されている。
論文 参考訳(メタデータ) (2023-02-28T05:01:01Z) - A Low-Complexity Approach to Rate-Distortion Optimized Variable Bit-Rate
Compression for Split DNN Computing [5.3221129103999125]
分散コンピューティングは、DNNベースのAIワークロードを実装するための最近のパラダイムとして登場した。
本稿では,レート・精度・複雑さのトレードオフを最適化する上での課題に対処するアプローチを提案する。
我々のアプローチは、トレーニングと推論の両方において非常に軽量であり、非常に効果的であり、高い速度歪曲性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T15:02:11Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Mesa: A Memory-saving Training Framework for Transformers [58.78933015299703]
本稿では,トランスフォーマーのためのメモリ節約トレーニングフレームワークであるMesaを紹介する。
Mesaは、フォワードパス中に正確なアクティベーションを使用し、低精度のアクティベーションを格納することで、トレーニング中のメモリ消費を減らす。
ImageNet、CIFAR-100、ADE20Kの実験は、Mesaがトレーニング中にメモリフットプリントの半分を削減できることを示した。
論文 参考訳(メタデータ) (2021-11-22T11:23:01Z) - COMET: A Novel Memory-Efficient Deep Learning Training Framework by
Using Error-Bounded Lossy Compression [8.080129426746288]
広範かつ深層ニューラルネットワーク(DNN)のトレーニングには、メモリなどの大量のストレージリソースが必要になる。
本稿では,メモリ効率のよいCNNトレーニングフレームワーク(COMET)を提案する。
我々のフレームワークは、ベースライントレーニングで最大13.5倍、最先端の圧縮ベースのフレームワークで1.8倍のトレーニングメモリ消費を大幅に削減できる。
論文 参考訳(メタデータ) (2021-11-18T07:43:45Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - A Novel Memory-Efficient Deep Learning Training Framework via
Error-Bounded Lossy Compression [6.069852296107781]
本稿では,メモリ駆動型高速DNNトレーニングフレームワークを提案する。
我々のフレームワークは、ベースライントレーニングと圧縮による最先端フレームワークよりも最大13.5xと1.8xのトレーニングメモリ消費を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-11-18T00:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。