論文の概要: Spatial Spiking Neural Networks Enable Efficient and Robust Temporal Computation
- arxiv url: http://arxiv.org/abs/2512.10011v2
- Date: Wed, 17 Dec 2025 21:49:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.216249
- Title: Spatial Spiking Neural Networks Enable Efficient and Robust Temporal Computation
- Title(参考訳): 空間スパイクニューラルネットワークによる時間計算の効率化とロバスト化
- Authors: Lennart P. L. Landsmeer, Amirreza Movahedin, Mario Negrello, Said Hamdioui, Christos Strydis,
- Abstract要約: 本研究では,ニューロンが有限次元ユークリッド空間で座標を学習するフレームワークである空間スパイキングニューラルネットワーク(SpSNN)を紹介する。
パラメータがはるかに少ないにもかかわらず、SpSNNは制約のない遅延でSNNより優れていることを示す。
学習された空間レイアウトはハードウェアに自然にマッピングされるため、SpSNNは効率的なニューロモルフィックの実装に役立てる。
- 参考スコア(独自算出の注目度): 0.4104921880358479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The efficiency of modern machine intelligence depends on high accuracy with minimal computational cost. In spiking neural networks (SNNs), synaptic delays are crucial for encoding temporal structure, yet existing models treat them as fully trainable, unconstrained parameters, leading to large memory footprints, higher computational demand, and a departure from biological plausibility. In the brain, however, delays arise from physical distances between neurons embedded in space. Building on this principle, we introduce Spatial Spiking Neural Networks (SpSNNs), a framework in which neurons learn coordinates in a finite-dimensional Euclidean space and delays emerge from inter-neuron distances. This replaces per-synapse delay learning with position learning, substantially reducing parameter count while retaining temporal expressiveness. Across the Yin-Yang and Spiking Heidelberg Digits benchmarks, SpSNNs outperform SNNs with unconstrained delays despite using far fewer parameters. Performance consistently peaks in 2D and 3D networks rather than infinite-dimensional delay spaces, revealing a geometric regularization effect. Moreover, dynamically sparsified SpSNNs maintain full accuracy even at 90% sparsity, matching standard delay-trained SNNs while using up to 18x fewer parameters. Because learned spatial layouts map naturally onto hardware geometries, SpSNNs lend themselves to efficient neuromorphic implementation. Methodologically, SpSNNs compute exact delay gradients via automatic differentiation with custom-derived rules, supporting arbitrary neuron models and architectures. Altogether, SpSNNs provide a principled platform for exploring spatial structure in temporal computation and offer a hardware-friendly substrate for scalable, energy-efficient neuromorphic intelligence.
- Abstract(参考訳): 現代のマシンインテリジェンスの効率は、最小の計算コストで高精度に依存する。
スパイキングニューラルネットワーク(SNN)では、シナプス遅延は時間構造を符号化するのに不可欠であるが、既存のモデルはそれらを完全に訓練可能で制約のないパラメータとして扱い、大きなメモリフットプリント、高い計算要求、生物学的な可視性から逸脱する。
しかし、脳内では、空間に埋め込まれたニューロン間の物理的距離から遅延が発生する。
この原理に基づいて、ニューロンが有限次元ユークリッド空間で座標を学習し、ニューロン間距離から遅延を発生させるフレームワークであるSpatial Spiking Neural Networks (SpSNNs)を導入する。
これは、シナプス毎の遅延学習を位置学習に置き換え、時間的表現性を維持しながらパラメータ数を大幅に削減する。
Yin-YangとSpking Heidelberg Digitsベンチマーク全体で、SpSNNはパラメータがはるかに少ないにもかかわらず、制約のない遅延でSNNを上回っている。
性能は無限次元遅延空間ではなく2次元ネットワークと3次元ネットワークで一貫してピークに達し、幾何学的正則化効果を示す。
さらに、動的にスパシファイドされたSpSNNは90%の間隔で完全精度を維持し、最大18倍のパラメータを使用しながら標準遅延訓練されたSNNと一致する。
学習された空間レイアウトはハードウェアのジオメトリに自然にマッピングされるため、SpSNNは効率的なニューロモルフィックの実装に役立てる。
方法論的には、SpSNNはカスタムルールによる自動微分を通じて正確な遅延勾配を計算し、任意のニューロンモデルとアーキテクチャをサポートする。
さらに、SpSNNは時間計算における空間構造を探索するための基本的プラットフォームを提供し、スケーラブルでエネルギー効率の良いニューロモルフィックインテリジェンスのためのハードウェアフレンドリーな基板を提供する。
関連論文リスト
- Delays in Spiking Neural Networks: A State Space Model Approach [2.309307613420651]
スパイキングニューラルネットワーク(SNN)は、時間的データを処理するのに適した、生物学的にインスパイアされたイベント駆動モデルである。
本稿では,SNNに遅延を組み込むための一般的なフレームワークを提案する。
提案手法は,計算効率を保ちながら,既存の遅延ベースSNNの性能と一致していることを示す。
論文 参考訳(メタデータ) (2025-12-01T17:26:21Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Multiplication-Free Parallelizable Spiking Neurons with Efficient Spatio-Temporal Dynamics [40.43988645674521]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークにインスパイアされた複雑な神経力学とスパースバイナリアクティベーション(スパイクス)によって、ニューラルネットワーク(ANN)と区別される。
従来のニューロンモデルは反復的なステップバイステップのダイナミクスを使用し、シリアル計算とSNNの遅いトレーニング速度をもたらす。
近年、SNNの訓練を加速するために、グラフィックス処理ユニットの大規模並列計算能力をフル活用するために並列化可能なスパイクニューロンモデルが提案されている。
論文 参考訳(メタデータ) (2025-01-24T13:44:08Z) - Optimizing Spatio-Temporal Information Processing in Spiking Neural Networks via Unconstrained Leaky Integrate-and-Fire Neurons and Hybrid Coding [0.0]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)と比較してエネルギー効率が高い
SNNは、時間情報を処理する能力という重要な特徴を持っている。
本稿では,時間ステップの異なるUnconstrained Integrate-and-Fire(ULIF)ニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T13:58:35Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。