論文の概要: Training of Quantized Deep Neural Networks using a Magnetic Tunnel
Junction-Based Synapse
- arxiv url: http://arxiv.org/abs/1912.12636v2
- Date: Sun, 29 May 2022 07:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 07:26:45.415833
- Title: Training of Quantized Deep Neural Networks using a Magnetic Tunnel
Junction-Based Synapse
- Title(参考訳): 磁気トンネル接合型シナプスを用いた量子化深部ニューラルネットワークの訓練
- Authors: Tzofnat Greenberg Toledo, Ben Perach, Itay Hubara, Daniel Soudry and
Shahar Kvatinsky
- Abstract要約: 深層ニューラルネットワークの計算複雑性とメモリ強度のソリューションとして、量子ニューラルネットワーク(QNN)が積極的に研究されている。
磁気トンネル接合(MTJ)デバイスがQNNトレーニングにどのように役立つかを示す。
本稿では,MTJ動作を用いた新しいシナプス回路を導入し,量子化更新をサポートする。
- 参考スコア(独自算出の注目度): 23.08163992580639
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantized neural networks (QNNs) are being actively researched as a solution
for the computational complexity and memory intensity of deep neural networks.
This has sparked efforts to develop algorithms that support both inference and
training with quantized weight and activation values, without sacrificing
accuracy. A recent example is the GXNOR framework for stochastic training of
ternary (TNN) and binary (BNN) neural networks. In this paper, we show how
magnetic tunnel junction (MTJ) devices can be used to support QNN training. We
introduce a novel hardware synapse circuit that uses the MTJ stochastic
behavior to support the quantize update. The proposed circuit enables
processing near memory (PNM) of QNN training, which subsequently reduces data
movement. We simulated MTJ-based stochastic training of a TNN over the MNIST,
SVHN, and CIFAR10 datasets and achieved an accuracy of 98.61%, 93.99% and
82.71%, respectively (less than 1% degradation compared to the GXNOR
algorithm). We evaluated the synapse array performance potential and showed
that the proposed synapse circuit can train ternary networks in situ, with
18.3TOPs/W for feedforward and 3TOPs/W for weight update.
- Abstract(参考訳): 深層ニューラルネットワークの計算複雑性とメモリ強度のソリューションとして、量子ニューラルネットワーク(QNN)が積極的に研究されている。
これにより、精度を犠牲にすることなく、定量化された重みとアクティベーション値による推論とトレーニングの両方をサポートするアルゴリズムの開発が進められている。
最近の例は、三進ニューラルネットワーク(TNN)と二進ニューラルネットワーク(BNN)の確率的トレーニングのためのGXNORフレームワークである。
本稿では,磁気トンネル接合(MTJ)デバイスを用いてQNNトレーニングを支援する方法について述べる。
本稿では,MTJ確率的動作を用いて量子化更新をサポートする新しいハードウェアシナプス回路を提案する。
提案回路は、qnnトレーニングのニアメモリ(pnm)を処理可能とし、データ移動を減少させる。
MNIST,SVHN,CIFAR10データセットに対するMTJベースのTNNの確率的トレーニングをシミュレーションし,それぞれ98.61%,93.99%,82.71%の精度を達成した(GXNORアルゴリズムと比較して1%未満)。
提案したシナプス回路は,フィードフォワードに18.3TOP/W,ウェイト更新に3TOP/Wの3次ネットワークをトレーニングできることを示した。
関連論文リスト
- Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - TT-SNN: Tensor Train Decomposition for Efficient Spiking Neural Network
Training [27.565726483503838]
スパイキングニューラルネットワーク(TT-SNN)の列車分解について紹介する。
TT-SNNはトレーニング可能な重量分解によってモデルサイズを削減し、ストレージ、FLOP、レイテンシーを削減した。
また,典型的な逐次テンソル計算の代替として並列計算を提案する。
論文 参考訳(メタデータ) (2024-01-15T23:08:19Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons [1.7056768055368383]
スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
論文 参考訳(メタデータ) (2023-06-22T04:25:27Z) - Stochastic Domain Wall-Magnetic Tunnel Junction Artificial Neurons for
Noise-Resilient Spiking Neural Networks [0.0]
本稿では,電圧依存性の確率発火を伴うDW-MTJニューロンについて述べる。
トレーニング中の検証精度は、理想的な統合およびファイアデバイスに匹敵することを示した。
本研究は、DW-MTJデバイスを用いて、エッジ上のニューロモルフィックコンピューティングに適した耐雑音性ネットワークを構築することができることを示す。
論文 参考訳(メタデータ) (2023-04-10T18:00:26Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Spike time displacement based error backpropagation in convolutional
spiking neural networks [0.6193838300896449]
本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果から,このアルゴリズムが深部SNNに適用可能であることを確認した。
後進パスで更新される実数値重みと、フィードフォワードプロセスで使用される2値重みと、その記号と2値重みの2つの重みを持つ畳み込みSNNを考える。
論文 参考訳(メタデータ) (2021-08-31T05:18:59Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。