論文の概要: Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses
- arxiv url: http://arxiv.org/abs/2108.01804v2
- Date: Sat, 25 Sep 2021 09:15:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 22:41:45.387536
- Title: Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses
- Title(参考訳): 相変化メモリシナプスを用いたスパイクリカレントニューラルネットワークのオンライントレーニング
- Authors: Yigit Demirag, Charlotte Frenkel, Melika Payvand, Giacomo Indiveri
- Abstract要約: 専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
- 参考スコア(独自算出の注目度): 1.9809266426888898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking recurrent neural networks (RNNs) are a promising tool for solving a
wide variety of complex cognitive and motor tasks, due to their rich temporal
dynamics and sparse processing. However training spiking RNNs on dedicated
neuromorphic hardware is still an open challenge. This is due mainly to the
lack of local, hardware-friendly learning mechanisms that can solve the
temporal credit assignment problem and ensure stable network dynamics, even
when the weight resolution is limited. These challenges are further
accentuated, if one resorts to using memristive devices for in-memory computing
to resolve the von-Neumann bottleneck problem, at the expense of a substantial
increase in variability in both the computation and the working memory of the
spiking RNNs. To address these challenges and enable online learning in
memristive neuromorphic RNNs, we present a simulation framework of
differential-architecture crossbar arrays based on an accurate and
comprehensive Phase-Change Memory (PCM) device model. We train a spiking RNN
whose weights are emulated in the presented simulation framework, using a
recently proposed e-prop learning rule. Although e-prop locally approximates
the ideal synaptic updates, it is difficult to implement the updates on the
memristive substrate due to substantial PCM non-idealities. We compare several
widely adapted weight update schemes that primarily aim to cope with these
device non-idealities and demonstrate that accumulating gradients can enable
online and efficient training of spiking RNN on memristive substrates.
- Abstract(参考訳): スパイキングリカレントニューラルネットワーク(spyking recurrent neural networks, rnn)は、時間的ダイナミクスとスパース処理が豊富であるため、様々な複雑な認知および運動タスクを解決する有望なツールである。
しかし、専用のニューロモルフィックハードウェアでRNNをスパイクする訓練は、まだオープンな課題である。
これは主に、時間的クレジット割り当ての問題を解決するためのローカルなハードウェアフレンドリーな学習メカニズムの欠如によるものであり、重量分解能が制限された場合でも安定したネットワークダイナミクスを確保できる。
これらの課題はさらに強調され、もしvon-neumannのボトルネック問題を解決するためにメモリ内コンピューティングにmemristive deviceを使用する場合、スパイクしたrnnの計算量とワーキングメモリのばらつきが大幅に増大する。
これらの課題に対処し、記憶型ニューロモルフィックRNNにおけるオンライン学習を可能にするために、PCMデバイスモデルに基づく差分アーキテクチャクロスバーアレイのシミュレーションフレームワークを提案する。
提案するe-prop学習規則を用いて,提案するシミュレーションフレームワークで重みをエミュレートしたスパイキングrnnを訓練する。
e-prop は理想的なシナプス更新を局所的に近似するが,PCM の非理想性が高いため,memristive 基板上での更新の実装は困難である。
我々は,これらのデバイス非理想性に対処することを主目的とする,広く適応した重み更新方式をいくつか比較し,勾配を蓄積することで,memristive substrate上でrnnをスパイクするオンラインかつ効率的なトレーニングを可能にすることを実証する。
関連論文リスト
- Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
本稿では、適応LIFニューロンとそのネットワークの動的、計算的、および学習特性について分析する。
適応LIFニューロンのネットワークの優越性は、複雑な時系列の予測と生成にまで及んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Synaptic metaplasticity with multi-level memristive devices [1.5598974049838272]
推論とトレーニングの両方において,メタ塑性を実現するためのメムリスタベースのハードウェアソリューションを提案する。
MNISTとFashion-MNISTの連続トレーニングにおいて,2層パーセプトロンの精度は97%,86%であった。
我々のアーキテクチャは、mmristorの制限された耐久性と互換性があり、メモリは15倍削減されている。
論文 参考訳(メタデータ) (2023-06-21T09:40:25Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - On-Chip Error-triggered Learning of Multi-layer Memristive Spiking
Neural Networks [1.7958576850695402]
オンライン3次重み更新を用いた局所的,勾配に基づく,エラートリガー付き学習アルゴリズムを提案する。
提案アルゴリズムは,多層SNNを記憶型ニューロモルフィックハードウェアでオンライントレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-11-21T19:44:19Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Multi-Objective Optimization for Size and Resilience of Spiking Neural
Networks [0.9449650062296823]
シリコンにおけるスパイキングニューラルネットワーク(SNN)モデル
スパイキングニューラルネットワークを2つのニューロモルフィックアーキテクチャの実装に適用し,そのサイズを小さくすることを目的とした。
本稿では,SNNのサイズとレジリエンスを最適化する多目的フィットネス機能を提案する。
論文 参考訳(メタデータ) (2020-02-04T16:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。