論文の概要: Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update
- arxiv url: http://arxiv.org/abs/2106.13914v1
- Date: Sat, 26 Jun 2021 00:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 17:46:54.943049
- Title: Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update
- Title(参考訳): 乗算重み更新を用いた対数システムの低精度学習
- Authors: Jiawei Zhao, Steve Dai, Rangharajan Venkatesan, Ming-Yu Liu, Brucek
Khailany, Bill Dally, Anima Anandkumar
- Abstract要約: 大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
- 参考スコア(独自算出の注目度): 49.948082497688404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training large-scale deep neural networks (DNNs) currently requires a
significant amount of energy, leading to serious environmental impacts. One
promising approach to reduce the energy costs is representing DNNs with
low-precision numbers. While it is common to train DNNs with forward and
backward propagation in low-precision, training directly over low-precision
weights, without keeping a copy of weights in high-precision, still remains to
be an unsolved problem. This is due to complex interactions between learning
algorithms and low-precision number systems. To address this, we jointly design
a low-precision training framework involving a logarithmic number system (LNS)
and a multiplicative weight update training method, termed LNS-Madam. LNS has a
high dynamic range even in a low-bitwidth setting, leading to high energy
efficiency and making it relevant for on-board training in energy-constrained
edge devices. We design LNS to have the flexibility of choosing different bases
for weights and gradients, as they usually require different quantization gaps
and dynamic ranges during training. By drawing the connection between LNS and
multiplicative update, LNS-Madam ensures low quantization error during weight
update, leading to a stable convergence even if the bitwidth is limited.
Compared to using a fixed-point or floating-point number system and training
with popular learning algorithms such as SGD and Adam, our joint design with
LNS and LNS-Madam optimizer achieves better accuracy while requiring smaller
bitwidth. Notably, with only 5-bit for gradients, the proposed training
framework achieves accuracy comparable to full-precision state-of-the-art
models such as ResNet-50 and BERT. After conducting energy estimations by
analyzing the math datapath units during training, the results show that our
design achieves over 60x energy reduction compared to FP32 on BERT models.
- Abstract(参考訳): 現在、大規模なディープニューラルネットワーク(DNN)のトレーニングにはかなりのエネルギーが必要であり、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチは、DNNを低精度で表現することである。
低精度で前方および後方に伝播するdnnを訓練することが一般的であるが、高精度で重みのコピーを保持することなく、低精度で直接訓練することは未解決の問題である。
これは学習アルゴリズムと低精度数システムの間の複雑な相互作用に起因する。
そこで我々は,対数数系(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
LNSは低ビット幅でも高いダイナミックレンジを持ち、エネルギー効率が向上し、エネルギー制約のエッジデバイスにおけるオンボードトレーニングに関係している。
通常、トレーニング中に異なる量子化ギャップとダイナミックレンジを必要とするため、重量と勾配の異なるベースを選択する柔軟性を持つようにLSNを設計する。
LNSと乗算更新の間の接続を描画することにより、LSS-Madamはウェイト更新中に低い量子化誤差を保証し、ビット幅が制限されても安定した収束をもたらす。
固定点数システムや浮動小数点数システムを用いてSGDやAdamのような一般的な学習アルゴリズムを訓練するのに比べ、LNSとLNS-Madamオプティマイザとの結合設計では、ビット幅を小さくしながら精度が向上する。
特に、勾配の5ビットしか持たないこのトレーニングフレームワークは、ResNet-50やBERTのような最先端のモデルに匹敵する精度を達成している。
学習中の数値データパス単位を解析してエネルギー推定を行った結果, bertモデルにおけるfp32と比較して60倍以上のエネルギー削減を達成できた。
関連論文リスト
- Low Precision Quantization-aware Training in Spiking Neural Networks
with Differentiable Quantization Function [0.5046831208137847]
この研究は、量子化されたニューラルネットワークの最近の進歩とスパイクニューラルネットワークのギャップを埋めることを目的としている。
これは、シグモイド関数の線形結合として表される量子化関数の性能に関する広範な研究を示す。
提案した量子化関数は、4つの人気のあるベンチマーク上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-05-30T09:42:05Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Edge Inference with Fully Differentiable Quantized Mixed Precision
Neural Networks [1.131071436917293]
パラメータと演算をビット精度の低いものに量子化することで、ニューラルネットワークの推論にかなりのメモリとエネルギーを節約できる。
本稿では,エッジ計算を対象とする混合精度畳み込みニューラルネットワーク(CNN)の量子化手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:11:37Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and
Spatially for Efficient DNN Training [81.85361544720885]
アクティベーション、ウェイト、グラデーションの精度を徐々に高めるプログレッシブ分数量子化を統合したFracTrainを提案します。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - Dynamic Hard Pruning of Neural Networks at the Edge of the Internet [11.605253906375424]
動的ハードプルーニング(DynHP)技術は、トレーニング中にネットワークを段階的にプルーニングする。
DynHPは、最終ニューラルネットワークの調整可能なサイズ削減と、トレーニング中のNNメモリ占有率の削減を可能にする。
凍結メモリは、ハードプルーニング戦略による精度劣化を相殺するために、エンファンダイナミックバッチサイズアプローチによって再利用される。
論文 参考訳(メタデータ) (2020-11-17T10:23:28Z) - FSpiNN: An Optimization Framework for Memory- and Energy-Efficient
Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパイクタイピング依存の可塑性(STDP)ルールのために教師なし学習機能を提供する。
しかし、最先端のSNNは高い精度を達成するために大きなメモリフットプリントを必要とする。
トレーニングおよび推論処理のためのメモリ効率とエネルギー効率のよいSNNを得るための最適化フレームワークFSpiNNを提案する。
論文 参考訳(メタデータ) (2020-07-17T09:40:26Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。