論文の概要: HetSyn: Versatile Timescale Integration in Spiking Neural Networks via Heterogeneous Synapses
- arxiv url: http://arxiv.org/abs/2508.11644v1
- Date: Fri, 01 Aug 2025 10:19:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.468735
- Title: HetSyn: Versatile Timescale Integration in Spiking Neural Networks via Heterogeneous Synapses
- Title(参考訳): HetSyn: 不均一なシナプスによるスパイクニューラルネットワークにおける不均一な時間スケール統合
- Authors: Zhichao Deng, Zhikun Liu, Junxue Wang, Shengqian Chen, Xiang Wei, Qiang Yu,
- Abstract要約: Spiking Neural Networks (SNN)は、時間情報処理のための生物学的に妥当でエネルギー効率の高いフレームワークを提供する。
HetSynはシナプス特異的な時間定数でシナプス不均一性をモデル化するフレームワークである。
We demonstrate that HetSynLIF improve the performance of SNNs across various tasks。
- 参考スコア(独自算出の注目度): 3.744763853474646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a biologically plausible and energy-efficient framework for temporal information processing. However, existing studies overlook a fundamental property widely observed in biological neurons-synaptic heterogeneity, which plays a crucial role in temporal processing and cognitive capabilities. To bridge this gap, we introduce HetSyn, a generalized framework that models synaptic heterogeneity with synapse-specific time constants. This design shifts temporal integration from the membrane potential to the synaptic current, enabling versatile timescale integration and allowing the model to capture diverse synaptic dynamics. We implement HetSyn as HetSynLIF, an extended form of the leaky integrate-and-fire (LIF) model equipped with synapse-specific decay dynamics. By adjusting the parameter configuration, HetSynLIF can be specialized into vanilla LIF neurons, neurons with threshold adaptation, and neuron-level heterogeneous models. We demonstrate that HetSynLIF not only improves the performance of SNNs across a variety of tasks-including pattern generation, delayed match-to-sample, speech recognition, and visual recognition-but also exhibits strong robustness to noise, enhanced working memory performance, efficiency under limited neuron resources, and generalization across timescales. In addition, analysis of the learned synaptic time constants reveals trends consistent with empirical observations in biological synapses. These findings underscore the significance of synaptic heterogeneity in enabling efficient neural computation, offering new insights into brain-inspired temporal modeling.
- Abstract(参考訳): Spiking Neural Networks (SNN)は、時間情報処理のための生物学的に妥当でエネルギー効率の高いフレームワークを提供する。
しかし、既存の研究は、時間的処理と認知能力において重要な役割を果たす生物学的ニューロンのシナプス的不均一性において広く見られる基本的特性を見落としている。
このギャップを埋めるために、シナプス特異的な時間定数でシナプス不均一性をモデル化する一般化されたフレームワークHetSynを導入する。
この設計は、時間的積分を膜電位からシナプス電流にシフトさせ、汎用的な時間スケール積分を可能にし、モデルが様々なシナプス力学を捉えることを可能にする。
We implement HetSyn as HetSynLIF, a extended form of the leaky integration-and-fire (LIF) model with synapse-specific decay dynamics。
パラメータ設定を調整することで、HetSynLIFはバニラLIFニューロン、閾値適応ニューロン、ニューロンレベルの異種モデルに特化することができる。
HetSynLIFは、パターン生成、遅延マッチング、音声認識、視覚認識を含む様々なタスクにおけるSNNの性能を改善するだけでなく、ノイズに対する強い堅牢性、作業記憶性能の向上、限られたニューロンリソース下での効率の向上、時間スケールでの一般化も示している。
さらに、学習したシナプス時間定数の分析により、生物学的シナプスにおける経験的観察と一致する傾向が明らかになった。
これらの知見は、脳にインスパイアされた時間モデルに対する新たな洞察を提供する、効率的な神経計算を可能にするためのシナプス的不均一性の重要性を浮き彫りにした。
関連論文リスト
- SynBrain: Enhancing Visual-to-fMRI Synthesis via Probabilistic Representation Learning [50.69448058071441]
視覚刺激が皮質反応にどのように変換されるかを理解することは、計算神経科学の基本的な課題である。
視覚的意味論から神経反応への変換をシミュレートする生成フレームワークであるSynBrainを提案する。
そこで本研究では,SynBrainが主観的視覚-fMRI符号化性能において最先端の手法を超越していることを示す。
論文 参考訳(メタデータ) (2025-08-14T03:01:05Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Extending Spike-Timing Dependent Plasticity to Learning Synaptic Delays [50.45313162890861]
シナプス接続強度と遅延を同時に学習するための新しい学習規則を導入する。
我々は、教師なし学習で訓練された分類のための広く使われているSNNモデルを拡張して、我々のアプローチを検証する。
その結果,提案手法は様々なテストシナリオにおいて常に優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-06-17T21:24:58Z) - Autaptic Synaptic Circuit Enhances Spatio-temporal Predictive Learning of Spiking Neural Networks [23.613277062707844]
Spiking Neural Networks (SNNs) は、生物学的ニューロンで見られる統合ファイアリーク機構をエミュレートする。
既存のSNNは、主にIntegrate-and-Fire Leaky(LIF)モデルに依存している。
本稿では,S-patioTemporal Circuit (STC) モデルを提案する。
論文 参考訳(メタデータ) (2024-06-01T11:17:27Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。