論文の概要: Improving Low-Latency Learning Performance in Spiking Neural Networks via a Change-Perceptive Dendrite-Soma-Axon Neuron
- arxiv url: http://arxiv.org/abs/2512.16259v1
- Date: Thu, 18 Dec 2025 07:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.964462
- Title: Improving Low-Latency Learning Performance in Spiking Neural Networks via a Change-Perceptive Dendrite-Soma-Axon Neuron
- Title(参考訳): 変化知覚型デンドライト-ソマ-アクソンニューロンによるスパイキングニューラルネットワークの低レイテンシ学習性能の向上
- Authors: Zeyu Huang, Wei Meng, Quan Liu, Kun Chen, Li Ma,
- Abstract要約: スパイキングニューロンは、スパイキングニューラルネットワーク(SNN)をよりエネルギー効率良くするための、全またはゼロの情報出力形式を持つ。
スパイキングニューロンに使用されるハードリセット機構は、多様な膜電位の均一なハンドリングによって情報劣化を引き起こす。
本稿では,ソフトリセット戦略と潜在的変化に基づく知覚機構を組み合わせたデンドライト・ソマ・アキソンニューロンを提案する。
- 参考スコア(独自算出の注目度): 19.595600625488004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neurons, the fundamental information processing units of Spiking Neural Networks (SNNs), have the all-or-zero information output form that allows SNNs to be more energy-efficient compared to Artificial Neural Networks (ANNs). However, the hard reset mechanism employed in spiking neurons leads to information degradation due to its uniform handling of diverse membrane potentials. Furthermore, the utilization of overly simplified neuron models that disregard the intricate biological structures inherently impedes the network's capacity to accurately simulate the actual potential transmission process. To address these issues, we propose a dendrite-soma-axon (DSA) neuron employing the soft reset strategy, in conjunction with a potential change-based perception mechanism, culminating in the change-perceptive dendrite-soma-axon (CP-DSA) neuron. Our model contains multiple learnable parameters that expand the representation space of neurons. The change-perceptive (CP) mechanism enables our model to achieve competitive performance in short time steps utilizing the difference information of adjacent time steps. Rigorous theoretical analysis is provided to demonstrate the efficacy of the CP-DSA model and the functional characteristics of its internal parameters. Furthermore, extensive experiments conducted on various datasets substantiate the significant advantages of the CP-DSA model over state-of-the-art approaches.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)の基本情報処理ユニットであるスパイキングニューロンは、SNNがニューラルネットワーク(ANN)と比較してエネルギー効率が良くなる全またはゼロの情報出力形式を持つ。
しかし、スパイキングニューロンに使用されるハードリセット機構は、多様な膜電位の均一なハンドリングによって情報劣化を引き起こす。
さらに、複雑な生物学的構造を無視した過剰に単純化されたニューロンモデルの利用は、ネットワークの能力に障害を与え、実際の潜在的な伝達過程を正確にシミュレートする。
これらの課題に対処するために, ソフトリセット戦略を用いたデンドライト・ソマアキソン (DSA) ニューロンを提案する。
我々のモデルは、ニューロンの表現空間を拡張する複数の学習可能なパラメータを含む。
変化知覚(CP)機構により,隣接する時間ステップの差分情報を利用して,短時間で競争性能を達成できる。
CP-DSAモデルの有効性と内部パラメータの機能的特性を示すために,厳密な理論的解析を行った。
さらに、様々なデータセット上で行われた広範な実験は、最先端アプローチよりもCP-DSAモデルの顕著な利点を裏付けるものである。
関連論文リスト
- Neuronal Group Communication for Efficient Neural representation [85.36421257648294]
本稿では, 効率的な, モジュラー, 解釈可能な表現を学習する, 大規模ニューラルシステムの構築方法に関する問題に対処する。
本稿では、ニューラルネットワークを相互作用する神経群の動的システムとして再認識する理論駆動型フレームワークである神経グループ通信(NGC)を提案する。
NGCは、重みを埋め込みのようなニューロン状態間の過渡的な相互作用として扱い、神経計算はニューロン群間の反復的なコミュニケーションを通じて展開する。
論文 参考訳(メタデータ) (2025-10-19T14:23:35Z) - NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [63.592664795493725]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、その一般化を実際の実験データで検証する最初の大規模ディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Spiking World Model with Multi-Compartment Neurons for Model-based Reinforcement Learning [6.0483672878162515]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、アルゴリズムの設計と知覚の応用において大きな研究の注目を集めている。
しかし、意思決定領域におけるその可能性、特にモデルに基づく強化学習については、未解明のままである。
本稿では,複数の樹状体源からの情報を非線形に積分し,長い逐次入力を動的に処理できるマルチコンパートメントニューロンモデルを提案する。
論文 参考訳(メタデータ) (2025-03-02T03:40:10Z) - Understanding Artificial Neural Network's Behavior from Neuron Activation Perspective [8.251799609350725]
本稿では,ニューロン活性化ダイナミクスのレンズによるディープニューラルネットワーク(DNN)の複雑な動作について検討する。
本稿では,モデルのニューロン活性化パターンをプロセスとして解析する確率的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-24T01:01:06Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Modeling Associative Plasticity between Synapses to Enhance Learning of
Spiking Neural Networks [4.736525128377909]
Spiking Neural Networks(SNN)は、ニューラルネットワークの第3世代であり、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする。
本稿では,シナプス間の結合可塑性をモデル化し,頑健で効果的な学習機構を提案する。
本手法は静的および最先端のニューロモルフィックデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2022-07-24T06:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。