論文の概要: A Brain-Inspired Gating Mechanism Unlocks Robust Computation in Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2509.03281v1
- Date: Wed, 03 Sep 2025 13:00:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.520487
- Title: A Brain-Inspired Gating Mechanism Unlocks Robust Computation in Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのロバスト計算をアンロックする脳誘発ゲーティング機構
- Authors: Qianyi Bai, Haiteng Wang, Qiang Yu,
- Abstract要約: 神経活動に応じて膜伝導が進化する新しいスパイクユニットであるDynamic Gated Neuron(DGN)を紹介する。
この結果から, 生物学的に妥当な動的ゲーティングが, 強靭なスパイクベースの計算の鍵となる機構であることを初めて強調した。
- 参考スコア(独自算出の注目度): 5.647576619206974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While spiking neural networks (SNNs) provide a biologically inspired and energy-efficient computational framework, their robustness and the dynamic advantages inherent to biological neurons remain significantly underutilized owing to oversimplified neuron models. In particular, conventional leaky integrate-and-fire (LIF) neurons often omit the dynamic conductance mechanisms inherent in biological neurons, thereby limiting their capacity to cope with noise and temporal variability. In this work, we revisit dynamic conductance from a functional perspective and uncover its intrinsic role as a biologically plausible gating mechanism that modulates information flow. Building on this insight, we introduce the Dynamic Gated Neuron~(DGN), a novel spiking unit in which membrane conductance evolves in response to neuronal activity, enabling selective input filtering and adaptive noise suppression. We provide a theoretical analysis showing that DGN possess enhanced stochastic stability compared to standard LIF models, with dynamic conductance intriguingly acting as a disturbance rejection mechanism. DGN-based SNNs demonstrate superior performance across extensive evaluations on anti-noise tasks and temporal-related benchmarks such as TIDIGITS and SHD, consistently exhibiting excellent robustness. Our results highlight, for the first time, a biologically plausible dynamic gating as a key mechanism for robust spike-based computation, providing not only theoretical guarantees but also strong empirical validations. This work thus paves the way for more resilient, efficient, and biologically inspired spiking neural networks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたエネルギー効率の高い計算フレームワークを提供するが、その堅牢性と生物学的ニューロンに固有の動的アドバンテージは、過度に単純化されたニューロンモデルのために著しく未利用のままである。
特に、従来の漏れた統合・火災(LIF)ニューロンは、生物学的ニューロンに固有のダイナミックコンダクタンス機構を省略し、ノイズや時間的変動に対処する能力を制限する。
本研究では,機能的観点からの動的コンダクタンスを再考し,情報の流れを調節する生物学的にもっともらしいゲーティング機構としての本質的な役割を明らかにする。
神経活動に応じて膜伝導が進行し、選択的入力フィルタリングと適応ノイズ抑制を可能にする新しいスパイクユニットであるDynamic Gated Neuron~(DGN)を導入する。
本稿では,DGNが標準LIFモデルと比較して高度確率安定性を有することを示す理論的解析を行い,動的コンダクタンスを外乱拒絶機構として興味深い役割を担っていることを示す。
DGNベースのSNNは、アンチノイズタスクやTIDIGITSやSHDなどの時間関連ベンチマークの広範な評価において、優れた堅牢性を示す。
以上の結果から, 生物学的に妥当な動的ゲーティングがスパイクに基づく堅牢な計算のキーメカニズムとして初めて注目され, 理論的保証だけでなく, 強い実証的検証も可能となった。
この研究は、より弾力性があり、効率的で生物学的にインスパイアされたニューラルネットワークの道を開く。
関連論文リスト
- Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [68.89389652724378]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、実際の実験データに基づいて検証された最初のスケールアップされたディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Neuronal and structural differentiation in the emergence of abstract rules in hierarchically modulated spiking neural networks [20.58066918526133]
ルール抽象化の根底にある内部的な機構は、いまだ解明されていない。
この研究は、階層的に変調された繰り返しスパイクニューラルネットワーク(HM-RSNN)を導入し、本質的な神経特性をチューニングできる。
我々は,HM-RSNNを用いた4つの認知課題のモデリングを行い,ネットワークレベルとニューロンレベルの両方で規則抽象化の相違が観察された。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - P-SpikeSSM: Harnessing Probabilistic Spiking State Space Models for Long-Range Dependency Tasks [1.9775291915550175]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる計算効率が高く生物学的に妥当な代替品として提案されている。
長距離依存タスクのためのスケーラブルな確率的スパイク学習フレームワークを開発した。
我々のモデルは、様々な長距離依存タスクにまたがるSNNモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T04:23:11Z) - Increasing Liquid State Machine Performance with Edge-of-Chaos Dynamics
Organized by Astrocyte-modulated Plasticity [0.0]
液体状態機械(LSM)は勾配のバックプロパゲーションなしで内部重量を調整する。
近年の知見は、アストロサイトがシナプスの可塑性と脳のダイナミクスを調節していることを示唆している。
本稿では, 自己組織的近接臨界力学を用いて, 性能の低いニューロン-アストロサイト液状状態機械 (NALSM) を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:04:40Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。