論文の概要: Delays in Spiking Neural Networks: A State Space Model Approach
- arxiv url: http://arxiv.org/abs/2512.01906v1
- Date: Mon, 01 Dec 2025 17:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.989383
- Title: Delays in Spiking Neural Networks: A State Space Model Approach
- Title(参考訳): スパイクニューラルネットワークの遅延:状態空間モデルアプローチ
- Authors: Sanja Karilanova, Subhrakanti Dey, Ayça Özçelikkale,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、時間的データを処理するのに適した、生物学的にインスパイアされたイベント駆動モデルである。
本稿では,SNNに遅延を組み込むための一般的なフレームワークを提案する。
提案手法は,計算効率を保ちながら,既存の遅延ベースSNNの性能と一致していることを示す。
- 参考スコア(独自算出の注目度): 2.309307613420651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) are biologically inspired, event-driven models that are suitable for processing temporal data and offer energy-efficient computation when implemented on neuromorphic hardware. In SNNs, richer neuronal dynamic allows capturing more complex temporal dependencies, with delays playing a crucial role by allowing past inputs to directly influence present spiking behavior. We propose a general framework for incorporating delays into SNNs through additional state variables. The proposed mechanism enables each neuron to access a finite temporal input history. The framework is agnostic to neuron models and hence can be seamlessly integrated into standard spiking neuron models such as LIF and adLIF. We analyze how the duration of the delays and the learnable parameters associated with them affect the performance. We investigate the trade-offs in the network architecture due to additional state variables introduced by the delay mechanism. Experiments on the Spiking Heidelberg Digits (SHD) dataset show that the proposed mechanism matches the performance of existing delay-based SNNs while remaining computationally efficient. Moreover, the results illustrate that the incorporation of delays may substantially improve performance in smaller networks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は生物学的にインスパイアされたイベント駆動モデルであり、時間的データ処理に適したモデルであり、ニューロモルフィックハードウェア上で実装された場合のエネルギー効率の高い計算を提供する。
SNNでは、よりリッチな神経力学により、より複雑な時間的依存を捉えることができ、過去の入力が現在のスパイク行動に直接影響を及ぼすことで遅延が重要な役割を果たす。
本稿では,SNNに遅延を組み込むための一般的なフレームワークを提案する。
提案したメカニズムにより、各ニューロンが有限時間入力履歴にアクセスできるようになる。
このフレームワークはニューロンモデルに依存しないため、LIFやadLIFのような標準スパイキングニューロンモデルにシームレスに統合することができる。
遅延の持続時間と学習可能なパラメータがパフォーマンスにどのように影響するかを分析する。
遅延機構によって導入された追加状態変数によるネットワークアーキテクチャのトレードオフについて検討する。
Spiking Heidelberg Digits (SHD)データセットの実験により,提案手法は計算効率を保ちながら既存の遅延ベースSNNの性能と一致していることが示された。
さらに, 遅延の組み込みにより, 小型ネットワークの性能が大幅に向上する可能性が示唆された。
関連論文リスト
- Low-Bit Data Processing Using Multiple-Output Spiking Neurons with Non-linear Reset Feedback [3.2443914909457594]
ニューロモルフィックコンピューティングにおける重要なアルゴリズムツールは、スパイクニューラルネットワーク(SNN)である
リセットによる一般SSM状態遷移と非線形フィードバック機構を組み合わせた新しい多出力スパイクニューロンモデルを提案する。
本研究は, リセット機構が不安定性を克服し, 神経力学の線形部分が不安定である場合でも学習を可能にすることを示す。
論文 参考訳(メタデータ) (2025-08-08T13:12:13Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
ニューロモルフィックハードウェア上のニューラルネットワークは、非喫煙者よりも消費電力の少ないオーダーを約束する。
このようなシステム上でのスパイクベースの計算のための標準的なニューロンモデルは、長い間、統合と火災(LIF)ニューロンであった。
いわゆるアダプティブLIFニューロンの根源はよく分かっていない。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Efficient and Effective Time-Series Forecasting with Spiking Neural Networks [47.371024581669516]
スパイキングニューラルネットワーク(SNN)は、時間データの複雑さを捉えるためのユニークな経路を提供する。
SNNを時系列予測に適用することは、効果的な時間的アライメントの難しさ、符号化プロセスの複雑さ、およびモデル選択のための標準化されたガイドラインの欠如により困難である。
本稿では,時間情報処理におけるスパイクニューロンの効率を活かした時系列予測タスクにおけるSNNのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:23:50Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Axonal Delay As a Short-Term Memory for Feed Forward Deep Spiking Neural
Networks [3.985532502580783]
近年の研究では、学習過程において神経細胞の時間遅延が重要な役割を担っていることが判明している。
スパイクの正確なタイミングを設定することは、SNNにおける時間情報の伝達過程を理解し改善するための有望な方向である。
本稿では,教師付き学習に時間遅延を統合することの有効性を検証するとともに,短期記憶による軸索遅延を変調するモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-20T16:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。