論文の概要: Including STDP to eligibility propagation in multi-layer recurrent
spiking neural networks
- arxiv url: http://arxiv.org/abs/2201.07602v1
- Date: Wed, 5 Jan 2022 05:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 21:57:16.771141
- Title: Including STDP to eligibility propagation in multi-layer recurrent
spiking neural networks
- Title(参考訳): 多層繰り返しスパイクニューラルネットワークの可視性伝播へのSTDPの適用
- Authors: Werner van der Veen
- Abstract要約: ニューロモルフィックシステムにおけるスパイクニューラルネットワーク(SNN)は、ディープラーニングベースの手法よりもエネルギー効率が高い。
このようなSNNを訓練するための明確な競合学習アルゴリズムは存在しない。
E-propは、低消費電力のニューロモルフィックハードウェアで競合する再帰性SNNを訓練する、効率的で生物学的に妥当な方法を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) in neuromorphic systems are more energy
efficient compared to deep learning-based methods, but there is no clear
competitive learning algorithm for training such SNNs. Eligibility propagation
(e-prop) offers an efficient and biologically plausible way to train
competitive recurrent SNNs in low-power neuromorphic hardware. In this report,
previous performance of e-prop on a speech classification task is reproduced,
and the effects of including STDP-like behavior are analyzed. Including STDP to
the ALIF neuron model improves the classification performance, but this is not
the case for the Izhikevich e-prop neuron. Finally, it was found that e-prop
implemented in a single-layer recurrent SNN consistently outperforms a
multi-layer variant.
- Abstract(参考訳): ニューロモルフィックシステムにおけるニューラルネットワーク(SNN)のスパイクは、ディープラーニングベースの手法よりもエネルギー効率が高いが、そのようなSNNを訓練するための明確な競合学習アルゴリズムはない。
E-propは、低消費電力のニューロモルフィックハードウェアで競合する再帰性SNNを訓練する、効率的で生物学的に妥当な方法を提供する。
本稿では,音声分類タスクにおける以前のe-propの性能を再現し,STDP様の動作を含む影響を分析する。
alifニューロンモデルへのstdpを含むと分類性能は向上するが、izhikevich e-propニューロンではそうではない。
最後に、単層繰り返しSNNで実装されたe-propは、連続的にマルチ層変異よりも優れていることがわかった。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Benchmarking Spiking Neural Network Learning Methods with Varying
Locality [2.323924801314763]
スパイキングニューラルネットワーク(SNN)はより現実的な神経力学を提供する。
情報はイベントベースのメカニズムでSNN内のスパイクとして処理される。
スパイキング機構の非分化性のため,SNNのトレーニングは困難であることを示す。
論文 参考訳(メタデータ) (2024-02-01T19:57:08Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification [13.521272923545409]
Spi Neural Networksは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
本稿では,ビデオ認識タスクのための教師なし学習を用いたヘテロジニアススパイキングニューラルネットワーク(HRSNN)を提案する。
本研究では,時間的バックプロパゲーション訓練による教師付きSNNに類似した性能を実現することができるが,少ない計算量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-09-22T16:34:01Z) - A comparative study of back propagation and its alternatives on
multilayer perceptrons [0.0]
フィードフォワードニューラルネットワークのバックパスをトレーニングするデファクトアルゴリズムはバックプロパゲーション(BP)である
ほぼすべての異なるアクティベーション関数を使用することで、ディープニューラルネットワークの層を通して勾配を後方に伝播させるのが効率的かつ効果的になった。
本稿では、畳み込みニューラルネットワーク(CNN)における予測とニューロンの安定性と類似性を解析し、その1つのアルゴリズムの新たなバリエーションを提案する。
論文 参考訳(メタデータ) (2022-05-31T18:44:13Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。