論文の概要: Ternary Spiking Neural Networks Enhanced by Complemented Neurons and Membrane Potential Aggregation
- arxiv url: http://arxiv.org/abs/2601.15598v1
- Date: Thu, 22 Jan 2026 02:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.475774
- Title: Ternary Spiking Neural Networks Enhanced by Complemented Neurons and Membrane Potential Aggregation
- Title(参考訳): 補体ニューロンと膜電位凝集による第3次スパイクニューラルネットワーク
- Authors: Boxuan Zhang, Jiaxin Wang, Zhen Xu, Kuan Tao,
- Abstract要約: スパイキングニューラルネットワーク(SNN)はエネルギー効率の良いモデルである。
現存する2重スパイクニューロンは、限られた生物学的確率を示す。
最近開発された第3次スパイクニューロンは、生物学的原理との整合性が高い。
- 参考スコア(独自算出の注目度): 11.162309557214705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) are promising energy-efficient models and powerful framworks of modeling neuron dynamics. However, existing binary spiking neurons exhibit limited biological plausibilities and low information capacity. Recently developed ternary spiking neuron possesses higher consistency with biological principles (i.e. excitation-inhibition balance mechanism). Despite of this, the ternary spiking neuron suffers from defects including iterative information loss, temporal gradient vanishing and irregular distributions of membrane potentials. To address these issues, we propose Complemented Ternary Spiking Neuron (CTSN), a novel ternary spiking neuron model that incorporates an learnable complemental term to store information from historical inputs. CTSN effectively improves the deficiencies of ternary spiking neuron, while the embedded learnable factors enable CTSN to adaptively adjust neuron dynamics, providing strong neural heterogeneity. Furthermore, based on the temporal evolution features of ternary spiking neurons' membrane potential distributions, we propose the Temporal Membrane Potential Regularization (TMPR) training method. TMPR introduces time-varying regularization strategy utilizing membrane potentials, furhter enhancing the training process by creating extra backpropagation paths. We validate our methods through extensive experiments on various datasets, demonstrating remarkable performance advances.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューロンダイナミクスをモデル化するエネルギー効率の良いモデルと強力なフラムワークである。
しかし、既存の2重スパイクニューロンは、限られた生物学的確率と低い情報容量を示す。
近年開発された第3次スパイキングニューロンは、生物学的原理(励起抑制バランス機構)との整合性が高い。
それにもかかわらず、三次スパイクニューロンは、反復的な情報損失、時間的勾配の消失、膜電位の不規則な分布などの欠陥に悩まされている。
これらの課題に対処するために, 学習可能な補完語を組み込んだ3次スパイクニューロンモデルであるCTSN(Complemented Ternary Spiking Neuron)を提案する。
CTSNは3次スパイクニューロンの欠損を効果的に改善し、組込み学習可能な因子によりCTSNはニューロンのダイナミクスを適応的に調整することができ、強力な神経異質性をもたらす。
さらに, 3次スパイキングニューロンの膜電位分布の時間的変化特性に基づいて, 時間膜電位正規化(TMPR)訓練法を提案する。
TMPRは膜電位を利用した時間変化正規化戦略を導入し、追加のバックプロパゲーションパスを作成することでトレーニングプロセスを強化する。
各種データセットの広範囲な実験により,本手法の有効性を実証した。
関連論文リスト
- Improving Low-Latency Learning Performance in Spiking Neural Networks via a Change-Perceptive Dendrite-Soma-Axon Neuron [19.595600625488004]
スパイキングニューロンは、スパイキングニューラルネットワーク(SNN)をよりエネルギー効率良くするための、全またはゼロの情報出力形式を持つ。
スパイキングニューロンに使用されるハードリセット機構は、多様な膜電位の均一なハンドリングによって情報劣化を引き起こす。
本稿では,ソフトリセット戦略と潜在的変化に基づく知覚機構を組み合わせたデンドライト・ソマ・アキソンニューロンを提案する。
論文 参考訳(メタデータ) (2025-12-18T07:16:23Z) - NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [63.592664795493725]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、その一般化を実際の実験データで検証する最初の大規模ディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - The Neuron as a Direct Data-Driven Controller [43.8450722109081]
本研究は、ニューロンを最適フィードバックコントローラとして概念化し、予測を最適化する現在の規範モデルを拡張する。
我々は、ニューロンを生物学的に実現可能なコントローラとしてモデル化し、ループダイナミクスを暗黙的に識別し、潜伏状態を推測し、制御を最適化する。
我々のモデルは、従来の、フィードフォワード、即時応答のマカロック-ピッツ-ローゼンブラットニューロンから大きく離れており、ニューラルネットワークを構築するための、新しく生物学的にインフォームドされた基本ユニットを提供する。
論文 参考訳(メタデータ) (2024-01-03T01:24:10Z) - Fast gradient-free activation maximization for neurons in spiking neural networks [5.805438104063613]
このようなループのための効率的な設計のフレームワークを提案する。
トレーニング中の人工ニューロンの最適刺激の変化を追跡する。
この洗練された最適刺激の形成は、分類精度の増大と関連している。
論文 参考訳(メタデータ) (2023-12-28T18:30:13Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Mesoscopic modeling of hidden spiking neurons [3.6868085124383616]
我々は粗粒度と平均場近似を用いて、ボトムアップ・ニューラルグラウンド付き潜在変数モデル(neuLVM)を導出する。
neuLVMは、繰り返し発生するマルチポピュレーションスパイクニューラルネットワーク(SNN)に明示的にマッピングできる
シンセティックスパイク列車では,数個の観察されたニューロンが,大きなSNNの効率的なモデル逆転を実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-05-26T17:04:39Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。