論文の概要: Sparse Axonal and Dendritic Delays Enable Competitive SNNs for Keyword Classification
- arxiv url: http://arxiv.org/abs/2602.09746v1
- Date: Tue, 10 Feb 2026 12:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.540963
- Title: Sparse Axonal and Dendritic Delays Enable Competitive SNNs for Keyword Classification
- Title(参考訳): 単語分類のための競合SNNを可能にするスパース軸索・樹状遅延
- Authors: Younes Bouhadjar, Emre Neftci,
- Abstract要約: スパイキングニューラルネットワーク(SNN)のトレーニング伝達遅延は、複雑な時間的タスクにおける性能を大幅に改善することが示されている。
本研究では, 軸索的あるいは樹状的遅延の学習により, 既存のシナプス的遅延学習手法と同等の精度で, フィードフォワードSNNに到達できることを示す。
- 参考スコア(独自算出の注目度): 5.928605435529651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training transmission delays in spiking neural networks (SNNs) has been shown to substantially improve their performance on complex temporal tasks. In this work, we show that learning either axonal or dendritic delays enables deep feedforward SNNs composed of leaky integrate-and-fire (LIF) neurons to reach accuracy comparable to existing synaptic delay learning approaches, while significantly reducing memory and computational overhead. SNN models with either axonal or dendritic delays achieve up to $95.58\%$ on the Google Speech Command (GSC) and $80.97\%$ on the Spiking Speech Command (SSC) datasets, matching or exceeding prior methods based on synaptic delays or more complex neuron models. By adjusting the delay parameters, we obtain improved performance for synaptic delay learning baselines, strengthening the comparison. We find that axonal delays offer the most favorable trade-off, combining lower buffering requirements with slightly higher accuracy than dendritic delays. We further show that the performance of axonal and dendritic delay models is largely preserved under strong delay sparsity, with as few as $20\%$ of delays remaining active, further reducing buffering requirements. Overall, our results indicate that learnable axonal and dendritic delays provide a resource-efficient and effective mechanism for temporal representation in SNNs. Code will be made available publicly upon acceptance. Code is available at https://github.com/YounesBouhadjar/AxDenSynDelaySNN
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)のトレーニング伝達遅延は、複雑な時間的タスクにおける性能を大幅に改善することが示されている。
本研究では, 軸索遅延または樹状遅延の学習により, 漏洩した積分・発火(LIF)ニューロンからなる深いフィードフォワードSNNが, 既存のシナプス遅延学習手法に匹敵する精度に到達し, メモリと計算オーバーヘッドを大幅に低減できることを示す。
軸索または樹状遅延を持つSNNモデルは、Google Speech Command (GSC)で最大95.58 %、Spking Speech Command (SSC)データセットで最大80.97 %に達する。
遅延パラメータを調整することにより、シナプス遅延学習ベースラインの性能を改善し、比較を強化する。
軸索遅延は,低バッファリング要求をデンドライト遅延よりもわずかに高い精度で組み合わせることで,最も良好なトレードオフを提供する。
さらに, 軸索および樹状遅延モデルの性能は, 高い遅延間隔で維持され, 20 % の遅延が有効であり, バッファリング要求の低減が図られている。
以上の結果から,学習可能な軸索および樹状突起遅延は,SNNにおける時間的表現の資源効率と有効性をもたらすことが示唆された。
コードは受理後、一般に公開される。
コードはhttps://github.com/YounesBouhadjar/AxDenSynDelaySNNで入手できる。
関連論文リスト
- DelRec: learning delays in recurrent spiking neural networks [44.373421535679476]
スパイキングニューラルネットワーク(SNN)は、従来の実数値ディープラーニングモデルのバイオインスパイアされた代替品である。
DelRecは、リカレントスパイキング層における軸索またはシナプス遅延をトレーニングする最初のSGLベースの方法である。
以上の結果から,SNNの時間的処理には繰り返し遅延が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2025-09-29T14:38:57Z) - Extending Spike-Timing Dependent Plasticity to Learning Synaptic Delays [50.45313162890861]
シナプス接続強度と遅延を同時に学習するための新しい学習規則を導入する。
我々は、教師なし学習で訓練された分類のための広く使われているSNNモデルを拡張して、我々のアプローチを検証する。
その結果,提案手法は様々なテストシナリオにおいて常に優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-06-17T21:24:58Z) - Efficient Event-based Delay Learning in Spiking Neural Networks [0.1350479308585481]
スパイキングニューラルネットワーク(SNN)はスパース通信を用いて計算し、注目を集めている。
本研究では,イベントプロップ形式を基礎とした,遅延を伴うSNNのための新しいイベントベーストレーニング手法を提案する。
提案手法はニューロン毎の複数のスパイクをサポートし,我々の知る限り,繰り返しSNNに適用される最初の遅延学習アルゴリズムである。
論文 参考訳(メタデータ) (2025-01-13T13:44:34Z) - Learning Delays in Spiking Neural Networks using Dilated Convolutions
with Learnable Spacings [1.534667887016089]
スパイキングニューラルネットワーク(SNN)は、電力効率の高い情報処理システムを構築する上で有望な研究方向である。
SNNでは、1つのスパイクが1つのニューロンから別のニューロンに移動するのに必要な時間を指す。
塑性遅延がSNNの表現性を大幅に向上させることが理論的に示されている。
本稿では,この問題をバックプロパゲーションを用いたディープフィードフォワードSNNで処理する離散時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-30T14:01:53Z) - Adaptive Axonal Delays in feedforward spiking neural networks for
accurate spoken word recognition [4.018601183900039]
スパイキングニューラルネットワーク(SNN)は、正確で効率的な自動音声認識システムを構築するための有望な研究手段である。
近年のオーディオ・ツー・スパイク符号化とトレーニングアルゴリズムの進歩により、SNNを実践的なタスクに適用することが可能になった。
本研究は,複雑な時間構造をもつタスクに対して,軸索遅延を訓練する可能性を示す。
論文 参考訳(メタデータ) (2023-02-16T22:19:04Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。