論文の概要: Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning
- arxiv url: http://arxiv.org/abs/2109.01905v1
- Date: Sat, 4 Sep 2021 17:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:27:49.825603
- Title: Spiking Neural Networks with Improved Inherent Recurrence Dynamics for
Sequential Learning
- Title(参考訳): 逐次学習のための固有再帰ダイナミクスを改良したスパイクニューラルネットワーク
- Authors: Wachirawit Ponghiran and Kaushik Roy
- Abstract要約: 漏れた統合と発火(LIF)ニューロンを持つニューラルネットワーク(SNN)は、イベント駆動方式で操作できる。
我々は,SNNを逐次的なタスクのために訓練し,LIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
- 参考スコア(独自算出の注目度): 6.417011237981518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) with leaky integrate and fire (LIF) neurons,
can be operated in an event-driven manner and have internal states to retain
information over time, providing opportunities for energy-efficient
neuromorphic computing, especially on edge devices. Note, however, many
representative works on SNNs do not fully demonstrate the usefulness of their
inherent recurrence (membrane potentials retaining information about the past)
for sequential learning. Most of the works train SNNs to recognize static
images by artificially expanded input representation in time through rate
coding. We show that SNNs can be trained for sequential tasks and propose
modifications to a network of LIF neurons that enable internal states to learn
long sequences and make their inherent recurrence resilient to the vanishing
gradient problem. We then develop a training scheme to train the proposed SNNs
with improved inherent recurrence dynamics. Our training scheme allows spiking
neurons to produce multi-bit outputs (as opposed to binary spikes) which help
mitigate the mismatch between a derivative of spiking neurons' activation
function and a surrogate derivative used to overcome spiking neurons'
non-differentiability. Our experimental results indicate that the proposed SNN
architecture on TIMIT and LibriSpeech 100h dataset yields accuracy comparable
to that of LSTMs (within 1.10% and 0.36%, respectively), but with 2x fewer
parameters than LSTMs. The sparse SNN outputs also lead to 10.13x and 11.14x
savings in multiplication operations compared to GRUs, which is generally
con-sidered as a lightweight alternative to LSTMs, on TIMIT and LibriSpeech
100h datasets, respectively.
- Abstract(参考訳): 漏れた統合と発火(LIF)ニューロンを持つスパイクニューラルネットワーク(SNN)は、イベント駆動方式で動作でき、内部状態が時間とともに情報を保持し、特にエッジデバイス上でエネルギー効率の良いニューロモルフィックコンピューティングの機会を提供する。
しかしながら、SNNにおける多くの代表的著作は、連続学習におけるそれらの固有の再発(過去の情報を保持する膜電位)の有用性を十分に示していない。
作品のほとんどが、レートコーディングを通じて、人工的に入力表現を拡張して静的画像を認識するためにsnsを訓練している。
我々は,SNNを逐次的タスクのために訓練し,内部状態が長いシーケンスを学習し,消失する勾配問題に耐性を持たせるようなLIFニューロンのネットワークへの修正を提案する。
そこで我々は,提案するSNNのトレーニング手法を開発し,本質的な再帰ダイナミクスを改良した。
スパイクニューロンの活性化関数の導出とスパイクニューロンの非分化性を克服するために用いられるサーロゲート誘導体とのミスマッチを軽減するために、スパイクニューロンは(バイナリスパイクとは対照的に)マルチビット出力を生成することができる。
実験の結果,TIMIT と LibriSpeech 100h のデータセット上で提案した SNN アーキテクチャは LSTM に匹敵する精度(それぞれ 1.10% と 0.36% )を示すが,LSTM より2倍少ないパラメータを持つことがわかった。
スパースSNN出力は、それぞれTIMITとLibriSpeech 100hデータセットのLSTMの軽量な代替として一般的に考えられているGRUと比較して、乗算操作において10.13xと11.14xの節約につながる。
関連論文リスト
- CLIF: Complementary Leaky Integrate-and-Fire Neuron for Spiking Neural Networks [5.587069105667678]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
差別化できないスパイク機構のため、SNNを訓練することは依然として困難である。
本稿では、Leaky Integrate-and-Fire Neuron-based SNNとComplementary Leaky Integrate-and-Fire Neuronを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:51:57Z) - Co-learning synaptic delays, weights and adaptation in spiking neural
networks [0.0]
スパイキングニューラルネットワーク(SNN)は、固有の時間処理とスパイクベースの計算のため、人工知能ニューラルネットワーク(ANN)と区別する。
スパイクニューロンを用いたデータ処理は、他の2つの生物学的にインスピレーションを受けたニューロンの特徴と接続重みを協調学習することで向上できることを示す。
論文 参考訳(メタデータ) (2023-09-12T09:13:26Z) - Accelerating SNN Training with Stochastic Parallelizable Spiking Neurons [1.7056768055368383]
スパイキングニューラルネットワーク(SNN)は、特にニューロモルフィックハードウェアにおいて、少ないエネルギーを使用しながら特徴を学習することができる。
深層学習において最も広く用いられるニューロンは、時間と火災(LIF)ニューロンである。
論文 参考訳(メタデータ) (2023-06-22T04:25:27Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Skip-Connected Self-Recurrent Spiking Neural Networks with Joint
Intrinsic Parameter and Synaptic Weight Training [14.992756670960008]
我々はSkip-Connected Self-Recurrent SNNs (ScSr-SNNs) と呼ばれる新しいタイプのRSNNを提案する。
ScSr-SNNは、最先端BP法で訓練された他のタイプのRSNNと比較して、パフォーマンスを最大2.55%向上させることができる。
論文 参考訳(メタデータ) (2020-10-23T22:27:13Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。