論文の概要: StochEP: Stochastic Equilibrium Propagation for Spiking Convergent Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2511.11320v1
- Date: Fri, 14 Nov 2025 13:58:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.642725
- Title: StochEP: Stochastic Equilibrium Propagation for Spiking Convergent Recurrent Neural Networks
- Title(参考訳): StochEP: 逐次ニューラルネットワークのスパイキングのための確率平衡伝播
- Authors: Jiaqi Lin, Yi Jiang, Abhronil Sengupta,
- Abstract要約: スパイキングネットワーク(SNN)は、エネルギー効率が高く、希少で生物学的にインスパイアされた計算を約束する。
BPTT(Backproagation Through Time)とサロゲート勾配(surrogate gradients)を併用したトレーニングは、強い性能を達成できるが、生物学的には不可能である。
本稿では,確率論的スパイキングニューロンをEPパラダイムに統合した平衡伝播(EP)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.560035501130006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) promise energy-efficient, sparse, biologically inspired computation. Training them with Backpropagation Through Time (BPTT) and surrogate gradients achieves strong performance but remains biologically implausible. Equilibrium Propagation (EP) provides a more local and biologically grounded alternative. However, existing EP frameworks, primarily based on deterministic neurons, either require complex mechanisms to handle discontinuities in spiking dynamics or fail to scale beyond simple visual tasks. Inspired by the stochastic nature of biological spiking mechanism and recent hardware trends, we propose a stochastic EP framework that integrates probabilistic spiking neurons into the EP paradigm. This formulation smoothens the optimization landscape, stabilizes training, and enables scalable learning in deep convolutional spiking convergent recurrent neural networks (CRNNs). We provide theoretical guarantees showing that the proposed stochastic EP dynamics approximate deterministic EP under mean-field theory, thereby inheriting its underlying theoretical guarantees. The proposed framework narrows the gap to both BPTT-trained SNNs and EP-trained non-spiking CRNNs in vision benchmarks while preserving locality, highlighting stochastic EP as a promising direction for neuromorphic and on-chip learning.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、エネルギー効率が高く、希少で生物学的にインスパイアされた計算を約束する。
BPTT(Backproagation Through Time)とサロゲート勾配(surrogate gradients)を併用したトレーニングは、強い性能を達成できるが、生物学的には不可能である。
Equilibrium Propagation (EP)は、より局所的で生物学的に根ざした代替手段を提供する。
しかし、既存のEPフレームワークは、主に決定論的ニューロンに基づいており、スパイキングダイナミクスの不連続性を扱う複雑なメカニズムを必要とするか、あるいは単純な視覚的タスクを超えてスケールできないかのどちらかである。
生体スパイキング機構の確率的性質と最近のハードウェアの動向から着想を得て,確率的スパイキングニューロンをEPパラダイムに統合する確率的EPフレームワークを提案する。
この定式化は最適化のランドスケープを円滑にし、トレーニングを安定化し、深い畳み込みスパイク収束性ニューラルネットワーク(CRNN)におけるスケーラブルな学習を可能にする。
提案した確率EP力学が平均場理論の下で決定論的EPに近似し、基礎となる理論的保証を継承することを示す理論的保証を提供する。
提案フレームワークは,視覚ベンチマークにおけるBPTT学習SNNとEP学習非喫煙CRNNとのギャップを狭め,局所性を保ちながら,確率EPをニューロモルフィックおよびオンチップ学習の有望な方向として強調する。
関連論文リスト
- Neuronal Group Communication for Efficient Neural representation [85.36421257648294]
本稿では, 効率的な, モジュラー, 解釈可能な表現を学習する, 大規模ニューラルシステムの構築方法に関する問題に対処する。
本稿では、ニューラルネットワークを相互作用する神経群の動的システムとして再認識する理論駆動型フレームワークである神経グループ通信(NGC)を提案する。
NGCは、重みを埋め込みのようなニューロン状態間の過渡的な相互作用として扱い、神経計算はニューロン群間の反復的なコミュニケーションを通じて展開する。
論文 参考訳(メタデータ) (2025-10-19T14:23:35Z) - Training Deep Normalization-Free Spiking Neural Networks with Lateral Inhibition [52.59263087086756]
深層ニューラルネットワーク(SNN)のトレーニングは、バッチ正規化のような明示的な正規化スキームに依存している。
本研究では,皮質回路にインスパイアされた側方抑制を取り入れた正規化自由学習フレームワークを提案する。
本稿では,生物リアリズムを持つ深層SNNの安定的学習を可能にするとともに,明示的な正規化に頼らずに競争性能を達成できることを述べる。
論文 参考訳(メタデータ) (2025-09-27T11:11:30Z) - Toward Practical Equilibrium Propagation: Brain-inspired Recurrent Neural Network with Feedback Regulation and Residual Connections [7.464380138405363]
生物学的にプラウブルなフィードバック制御型Residual Recurrent Neural Network (FRE-RNN) を提案し,その学習性能について検討した。
収束特性の改善は、EPの計算コストと列車運行時間を桁違いに削減する。
提案手法は,人工知能を駆使しない大規模ネットワークにおけるEPの適用性と実用性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-05T15:07:50Z) - Exploiting Heterogeneity in Timescales for Sparse Recurrent Spiking Neural Networks for Energy-Efficient Edge Computing [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングの最前線である。
本稿では,SNNのパフォーマンスに革命をもたらす3つの画期的な研究をまとめる。
論文 参考訳(メタデータ) (2024-07-08T23:33:12Z) - Evolutionary algorithms as an alternative to backpropagation for
supervised training of Biophysical Neural Networks and Neural ODEs [12.357635939839696]
本稿では,生物物理学に基づくニューラルネットワークの学習における「段階的推定」進化アルゴリズムの利用について検討する。
EAにはいくつかのアドバンテージがあり、直接BPよりも望ましいことが分かりました。
以上の結果から,生体物理学ニューロンはBP法の限界をテストする上で有用なベンチマークを提供する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-17T20:59:57Z) - A Theoretical Framework for Inference and Learning in Predictive Coding
Networks [41.58529335439799]
予測符号化(PC)は、計算神経科学において重要な理論である。
予測構成で訓練されたPCNの特性に関する包括的理論的解析を行う。
論文 参考訳(メタデータ) (2022-07-21T04:17:55Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [62.43908463620527]
実際には、EPはMNISTよりも難しい視覚タスクにスケールしない。
我々は、有限なヌーディングの使用に固有のEPの勾配推定のバイアスがこの現象に責任があることを示しています。
これらの結果は、EPをディープニューラルネットワークにおける誤差勾配を計算するスケーラブルなアプローチとして強調し、ハードウェア実装を動機付けている。
論文 参考訳(メタデータ) (2021-01-14T10:23:40Z) - Complexity-based speciation and genotype representation for
neuroevolution [81.21462458089142]
本稿では、進化するネットワークを隠されたニューロンの数に基づいて種に分類する神経進化の種分化原理を提案する。
提案された種分化原理は、種および生態系全体における多様性の促進と保存を目的として設計されたいくつかの技術で採用されている。
論文 参考訳(メタデータ) (2020-10-11T06:26:56Z) - A Theoretical Framework for Target Propagation [75.52598682467817]
我々は、バックプロパゲーション(BP)の代替として人気があるが、まだ完全には理解されていないターゲット伝搬(TP)を解析する。
提案理論は,TPがガウス・ニュートン最適化と密接に関係していることを示し,BPとは大きく異なる。
我々は,フィードバックウェイトトレーニングを改善する新しいリコンストラクション損失を通じて,この問題に対する第1の解決策を提供する。
論文 参考訳(メタデータ) (2020-06-25T12:07:06Z) - Continual Weight Updates and Convolutional Architectures for Equilibrium
Propagation [69.87491240509485]
Equilibrium Propagation (EP)は、ニューラルネットワークのトレーニングのためのバックプロパゲーション(BP)に対する生物学的にインスパイアされた代替アルゴリズムである。
本稿では,方程式の簡易化,学習の高速化,CNNへのEP拡張を可能にするEPの離散時間定式化を提案する。
我々のCNNモデルは、EPでMNISTで報告された最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-29T12:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。