論文の概要: ChronoPlastic Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2601.00805v1
- Date: Wed, 17 Dec 2025 06:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.505547
- Title: ChronoPlastic Spiking Neural Networks
- Title(参考訳): クロノプラスティックスパイクニューラルネットワーク
- Authors: Sarim Chaudhry,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる生物学的基盤とエネルギー効率のよい代替手段を提供する。
CPSNNは時間的制御を直接局所シナプス力学に組み込む。
CPSNNは、標準のSNNベースラインよりもはるかに高速で信頼性の高い長期的依存関係を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) offer a biologically grounded and energy-efficient alternative to conventional neural architectures; however, they struggle with long-range temporal dependencies due to fixed synaptic and membrane time constants. This paper introduces ChronoPlastic Spiking Neural Networks (CPSNNs), a novel architectural principle that enables adaptive temporal credit assignment by dynamically modulating synaptic decay rates conditioned on the state of the network. CPSNNs maintain multiple internal temporal traces and learn a continuous time-warping function that selectively preserves task-relevant information while rapidly forgetting noise. Unlike prior approaches based on adaptive membrane constants, attention mechanisms, or external memory, CPSNNs embed temporal control directly within local synaptic dynamics, preserving linear-time complexity and neuromorphic compatibility. We provide a formal description of the model, analyze its computational properties, and demonstrate empirically that CPSNNs learn long-gap temporal dependencies significantly faster and more reliably than standard SNN baselines. Our results suggest that adaptive temporal modulation is a key missing ingredient for scalable temporal learning in spiking systems.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる生物学的基盤とエネルギー効率の代替手段を提供するが、固定されたシナプスと膜時間定数による長期の時間依存性に苦しむ。
本稿では,ネットワークの状態に条件付けられたシナプス崩壊率を動的に変調することにより,時間的信頼度を適応的に調整できる新しいアーキテクチャ原理であるChronoPlastic Spiking Neural Networks(CPSNNs)を紹介する。
CPSNNは、複数の内部時間トレースを保持し、ノイズを素早く忘れつつタスク関連情報を選択的に保存する連続的なタイムワープ関数を学習する。
適応的な膜定数、注意機構、または外部記憶に基づく以前のアプローチとは異なり、CPSNNは時間的制御を直接局所シナプス力学に組み込んでおり、線形時間複雑性とニューロモルフィック互換性を保っている。
本稿では,CPSNNが標準SNNベースラインよりもはるかに高速かつ確実な時間依存性を学習できることを実証的に示す。
以上の結果から,適応時間変調はスパイキングシステムにおける拡張時間学習の鍵を欠く要素であることが示唆された。
関連論文リスト
- Unleashing Temporal Capacity of Spiking Neural Networks through Spatiotemporal Separation [67.69345363409835]
スパイキングニューラルネットワーク(SNN)は、時間的処理に自然に適していると考えられており、膜電位の伝播は、コア時間的モデリングメカニズムとして広く見なされている。
我々は, 膜伝播を段階的に段階的に除去する非ステートフル(NS)モデルの設計を行った。
論文 参考訳(メタデータ) (2025-12-05T07:05:53Z) - Delays in Spiking Neural Networks: A State Space Model Approach [2.309307613420651]
スパイキングニューラルネットワーク(SNN)は、時間的データを処理するのに適した、生物学的にインスパイアされたイベント駆動モデルである。
本稿では,SNNに遅延を組み込むための一般的なフレームワークを提案する。
提案手法は,計算効率を保ちながら,既存の遅延ベースSNNの性能と一致していることを示す。
論文 参考訳(メタデータ) (2025-12-01T17:26:21Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - TS-LIF: A Temporal Segment Spiking Neuron Network for Time Series Forecasting [27.91825785119938]
Spiking Neural Networks(SNN)は、時系列予測のためのデータ処理に、有望で生物学的にインスパイアされたアプローチを提供する。
本稿では,デュアルコンパートメントアーキテクチャを特徴とするテンポラルリーキーセグメント統合とファイアモデルを提案する。
実験の結果,TS-LIFは時系列予測において従来のSNNよりも優れていた。
論文 参考訳(メタデータ) (2025-03-07T03:06:21Z) - Learning Delays Through Gradients and Structure: Emergence of Spatiotemporal Patterns in Spiking Neural Networks [0.06752396542927405]
学習可能なシナプス遅延を2つのアプローチで組み込んだスパイキングニューラルネットワーク(SNN)モデルを提案する。
後者のアプローチでは、ネットワークは接続を選択してプーンし、スパース接続設定の遅延を最適化する。
本研究では,時間的データ処理のための効率的なSNNモデルを構築するために,遅延学習と動的プルーニングを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2024-07-07T11:55:48Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z) - Exploiting Neuron and Synapse Filter Dynamics in Spatial Temporal
Learning of Deep Spiking Neural Network [7.503685643036081]
空間的時間特性を持つ生物解析可能なSNNモデルは複雑な力学系である。
ニューロン非線形性を持つ無限インパルス応答(IIR)フィルタのネットワークとしてSNNを定式化する。
本稿では,最適シナプスフィルタカーネルと重みを求めることにより,時空間パターンを学習できる学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-19T01:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。