論文の概要: SpikingGamma: Surrogate-Gradient Free and Temporally Precise Online Training of Spiking Neural Networks with Smoothed Delays
- arxiv url: http://arxiv.org/abs/2602.01978v1
- Date: Mon, 02 Feb 2026 11:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.109673
- Title: SpikingGamma: Surrogate-Gradient Free and Temporally Precise Online Training of Spiking Neural Networks with Smoothed Delays
- Title(参考訳): SpikingGamma: スムーズな遅延を伴うスパイキングニューラルネットワークのサロゲート・グラディエント・フリー・タイムリーなオンライントレーニング
- Authors: Roel Koopman, Sebastian Otte, Sander Bohté,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、スパースでイベント駆動の計算を通じて、エネルギー効率の高い低レイテンシAIを約束する。
しかし、微細な時間的離散化の下でのSNNのトレーニングは依然として大きな課題であり、低レイテンシ応答性とソフトウェアで訓練されたSNNの効率的なハードウェアへのマッピングを妨げている。
このSpykingGammaモデルでは,スロゲート勾配を使わずに直接エラーバックプロパゲーションをサポートし,オンライン的に最小のスパイクで微妙な時間パターンを学習し,複雑なタスクやベンチマークに競合精度でフィードフォワードSNNを拡張できることが示されている。
- 参考スコア(独自算出の注目度): 1.5166105038254163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neuromorphic hardware implementations of Spiking Neural Networks (SNNs) promise energy-efficient, low-latency AI through sparse, event-driven computation. Yet, training SNNs under fine temporal discretization remains a major challenge, hindering both low-latency responsiveness and the mapping of software-trained SNNs to efficient hardware. In current approaches, spiking neurons are modeled as self-recurrent units, embedded into recurrent networks to maintain state over time, and trained with BPTT or RTRL variants based on surrogate gradients. These methods scale poorly with temporal resolution, while online approximations often exhibit instability for long sequences and tend to fail at capturing temporal patterns precisely. To address these limitations, we develop spiking neurons with internal recursive memory structures that we combine with sigma-delta spike-coding. We show that this SpikingGamma model supports direct error backpropagation without surrogate gradients, can learn fine temporal patterns with minimal spiking in an online manner, and scale feedforward SNNs to complex tasks and benchmarks with competitive accuracy, all while being insensitive to the temporal resolution of the model. Our approach offers both an alternative to current recurrent SNNs trained with surrogate gradients, and a direct route for mapping SNNs to neuromorphic hardware.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)のニューロモルフィックハードウェア実装は、スパースでイベント駆動の計算を通じて、エネルギー効率の高い低レイテンシAIを約束する。
しかし、微細な時間的離散化の下でのSNNのトレーニングは依然として大きな課題であり、低レイテンシ応答性とソフトウェアで訓練されたSNNの効率的なハードウェアへのマッピングを妨げている。
現在のアプローチでは、スパイキングニューロンは自己リカレントユニットとしてモデル化され、時間の経過とともに状態を維持するためにリカレントネットワークに埋め込まれ、代理勾配に基づいてBPTTまたはRTRL変異体で訓練される。
これらの手法は時間分解能に乏しいが、オンライン近似は長周期の不安定性を示すことが多く、時間的パターンを正確に捉えるのに失敗する傾向にある。
これらの制約に対処するために、シグマデルタスパイク符号化と組み合わせた内部再帰記憶構造を持つスパイキングニューロンを開発する。
このSpikeGammaモデルでは,過度な勾配を伴わずに直接エラーのバックプロパゲーションをサポートし,オンライン的に最小限のスパイクで微妙な時間パターンを学習し,複雑なタスクやベンチマークに競合精度でフィードフォワードSNNをスケールすることができる。
提案手法は,サロゲート勾配を訓練した現在のSNNの代替手段と,SNNをニューロモルフィックハードウェアにマッピングする直接的な経路を提供する。
関連論文リスト
- TMN: A Lightweight Neuron Model for Efficient Nonlinear Spike Representation [7.524721345903027]
スパイク・トレインはスパイク・ニューラル・ネットワークにおける情報伝達の主要な媒体である。
スパイク数やタイミングに基づく既存の符号化スキームは、しばしば低ステップの制約の下で厳しい制限に直面している。
本稿では,2つの重要なイノベーションを特徴とする新しいニューロンモデルであるTernary Momentum Neuron (TMN)を提案する。
論文 参考訳(メタデータ) (2024-08-30T12:39:25Z) - Brain-Inspired Spiking Neural Network for Online Unsupervised Time
Series Prediction [13.521272923545409]
連続学習に基づく非教師付きリカレントスパイキングニューラルネットワークモデル(CLURSNN)を提案する。
CLURSNNは、ランダム遅延埋め込み(Random Delay Embedding)を使用して基盤となる動的システムを再構築することで、オンライン予測を行う。
提案手法は,進化するロレンツ63力学系を予測する際に,最先端のDNNモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-10T16:18:37Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Online Training Through Time for Spiking Neural Networks [66.7744060103562]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
近年のトレーニング手法の進歩により、レイテンシの低い大規模タスクにおいて、ディープSNNを成功させることができた。
本稿では,BPTT から派生した SNN の時間的学習(OTTT)によるオンライントレーニングを提案する。
論文 参考訳(メタデータ) (2022-10-09T07:47:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses [1.9809266426888898]
専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
論文 参考訳(メタデータ) (2021-08-04T01:24:17Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。