論文の概要: Estimating Post-Synaptic Effects for Online Training of Feed-Forward
SNNs
- arxiv url: http://arxiv.org/abs/2311.16151v1
- Date: Tue, 7 Nov 2023 16:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 13:19:52.573383
- Title: Estimating Post-Synaptic Effects for Online Training of Feed-Forward
SNNs
- Title(参考訳): フィードフォワードSNNのオンライントレーニングにおけるシナプス後効果の推定
- Authors: Thomas Summe, Clemens JS Schaefer, Siddharth Joshi
- Abstract要約: スパイクニューラルネットワーク(SNN)におけるオンライン学習の実現は、イベントベースのモデルを開発する上で重要なステップである。
本稿では, フィードフォワードSNNのトレーニングのためのOTPE(Online Training with Postsynaptic Estimates)を提案する。
本研究では, 時間的効果の新たな近似法を用いて, マルチ層ネットワークのスケーリング改善を示す。
- 参考スコア(独自算出の注目度): 0.27016900604393124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facilitating online learning in spiking neural networks (SNNs) is a key step
in developing event-based models that can adapt to changing environments and
learn from continuous data streams in real-time. Although forward-mode
differentiation enables online learning, its computational requirements
restrict scalability. This is typically addressed through approximations that
limit learning in deep models. In this study, we propose Online Training with
Postsynaptic Estimates (OTPE) for training feed-forward SNNs, which
approximates Real-Time Recurrent Learning (RTRL) by incorporating temporal
dynamics not captured by current approximations, such as Online Training
Through Time (OTTT) and Online Spatio-Temporal Learning (OSTL). We show
improved scaling for multi-layer networks using a novel approximation of
temporal effects on the subsequent layer's activity. This approximation incurs
minimal overhead in the time and space complexity compared to similar
algorithms, and the calculation of temporal effects remains local to each
layer. We characterize the learning performance of our proposed algorithms on
multiple SNN model configurations for rate-based and time-based encoding. OTPE
exhibits the highest directional alignment to exact gradients, calculated with
backpropagation through time (BPTT), in deep networks and, on time-based
encoding, outperforms other approximate methods. We also observe sizeable gains
in average performance over similar algorithms in offline training of Spiking
Heidelberg Digits with equivalent hyper-parameters (OTTT/OSTL - 70.5%; OTPE -
75.2%; BPTT - 78.1%).
- Abstract(参考訳): スパイクニューラルネットワーク(SNN)におけるオンライン学習の実現は、変化する環境に適応し、リアルタイムで連続データストリームから学習できるイベントベースのモデルを開発するための重要なステップである。
前方モードの微分はオンライン学習を可能にするが、その計算要求はスケーラビリティを制限する。
これは通常、深層モデルでの学習を制限する近似によって解決される。
本研究では,リアルタイム・リカレント・ラーニング(RTRL)を近似したフィードフォワードSNNのトレーニングに,OTTT(Online Training Through Time)やOSTL(Online Spatio-Temporal Learning)など,現在の近似では得られない時間的ダイナミクスを組み込むことにより,ポストシナプス推定を用いたオンライントレーニングを提案する。
本研究では, 時間的効果の新たな近似法を用いて, マルチ層ネットワークのスケーリング改善を示す。
この近似は、類似のアルゴリズムと比較して時間と空間の複雑さにおいて最小のオーバーヘッドを伴い、時間効果の計算は各層に局所的に残る。
レートベースおよび時間ベース符号化のための複数のSNNモデル構成に対して提案アルゴリズムの学習性能を特徴付ける。
otpeは、深層ネットワークにおけるバックプロパゲーション・アライメント・アライメント(bptt)によって計算され、時間に基づくエンコーディングでは、他の近似手法よりも高い方向アライメントを示す。
また、同等のハイパーパラメータ (OTTT/OSTL - 70.5%; OTPE75.2%; BPTT - 78.1%) を持つスパイキングハイデルバーグ・ディジットのオフライントレーニングにおいて、同様のアルゴリズムに対する平均的なパフォーマンスの大幅な向上も観察した。
関連論文リスト
- Comprehensive Online Training and Deployment for Spiking Neural Networks [40.255762156745405]
スパイキングニューラルネットワーク(SNN)は、人工知能(AI)の今後の発展において大きな可能性を秘めていると考えられている
現在提案されているオンライントレーニング手法は,時間依存勾配の不分離問題に対処できない。
浮動小数点スパイクと二乗シナプス重みに基づく先進的なスパイクモデル群であるEM-PFモデルを提案する。
論文 参考訳(メタデータ) (2024-10-10T02:39:22Z) - S-TLLR: STDP-inspired Temporal Local Learning Rule for Spiking Neural Networks [7.573297026523597]
スパイキングニューラルネットワーク(SNN)は生物学的に妥当なモデルであり、エッジにエネルギー効率の良いインテリジェンスをデプロイするための候補として特定されている。
本稿では,S-TLLRを提案する。S-TLLRはスパイク・タイミング依存塑性(STDP)機構にインスパイアされた新しい3要素時間的局所学習法である。
S-TLLRは、メモリと時間の複雑さが低く、時間ステップの数に依存しないように設計されており、低消費電力エッジデバイス上でのオンライン学習に適している。
論文 参考訳(メタデータ) (2023-06-27T05:44:56Z) - Towards Memory- and Time-Efficient Backpropagation for Training Spiking
Neural Networks [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングのためのエネルギー効率の高いモデルである。
本研究では,学習効率を大幅に向上させつつ,高い性能を達成できる空間学習時間(SLTT)法を提案する。
BPTTと比較して, メモリコストとトレーニング時間は, それぞれ70%以上, 50%以上削減されている。
論文 参考訳(メタデータ) (2023-02-28T05:01:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Accurate online training of dynamical spiking neural networks through
Forward Propagation Through Time [1.8515971640245998]
最近開発されたBPTTの代替手段が、スパイクニューラルネットワークにどのように適用できるかを示す。
FPTTは、損失に対する動的に規則化されたリスクを最小化しようとする。
FPTTで訓練したSNNは、オンラインBPTT近似よりも優れており、時間的分類タスクにおいてオフラインBPTT精度に近づいたり、超えたりしている。
論文 参考訳(メタデータ) (2021-12-20T13:44:20Z) - Online Spatio-Temporal Learning in Deep Neural Networks [1.6624384368855523]
オンライン学習は、最近研究コミュニティの注目を集め、BPTTを近似するアプローチや、SNNに適用する生物学的に有望なスキームに焦点をあてている。
ここでは、空間的および時間的勾配成分の明確な分離に基づく別の視点を示す。
私たちは、オンラインスパイキング時間学習(OSTL)という、深層SNNのための新しいオンライン学習アルゴリズムの第一原理から派生した。
浅いネットワークの場合、OSTLはBPTTと同等の勾配であり、BPTT同値勾配を持つSNNのオンライントレーニングを初めて行うことができる。さらに、提案された定式化はSNNアーキテクチャのクラスを公開する。
論文 参考訳(メタデータ) (2020-07-24T18:10:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。