論文の概要: CaRe-BN: Precise Moving Statistics for Stabilizing Spiking Neural Networks in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.23791v1
- Date: Sun, 28 Sep 2025 10:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.449988
- Title: CaRe-BN: Precise Moving Statistics for Stabilizing Spiking Neural Networks in Reinforcement Learning
- Title(参考訳): CaRe-BN:強化学習におけるスパイクニューラルネットワークの安定化のための精密移動統計
- Authors: Zijie Xu, Xinyu Shi, Yiting Dong, Zihan Huang, Zhaofei Yu,
- Abstract要約: Spiking Neural Networks (SNN)は、ニューロモルフィックハードウェア上で低レイテンシでエネルギー効率の意思決定を提供する。
スパイクの離散的かつ微分不可能な性質のため、直接訓練されたSNNは勾配更新を安定させるためにバッチ正規化(BN)に大きく依存する。
オンライン強化学習(RL)では、BN統計は搾取を妨げ、収束と準最適政策を遅くする。
- 参考スコア(独自算出の注目度): 50.87795054453648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) offer low-latency and energy-efficient decision-making on neuromorphic hardware by mimicking the event-driven dynamics of biological neurons. However, due to the discrete and non-differentiable nature of spikes, directly trained SNNs rely heavily on Batch Normalization (BN) to stabilize gradient updates. In online Reinforcement Learning (RL), imprecise BN statistics hinder exploitation, resulting in slower convergence and suboptimal policies. This challenge limits the adoption of SNNs for energy-efficient control on resource-constrained devices. To overcome this, we propose Confidence-adaptive and Re-calibration Batch Normalization (CaRe-BN), which introduces (\emph{i}) a confidence-guided adaptive update strategy for BN statistics and (\emph{ii}) a re-calibration mechanism to align distributions. By providing more accurate normalization, CaRe-BN stabilizes SNN optimization without disrupting the RL training process. Importantly, CaRe-BN does not alter inference, thus preserving the energy efficiency of SNNs in deployment. Extensive experiments on continuous control benchmarks demonstrate that CaRe-BN improves SNN performance by up to $22.6\%$ across different spiking neuron models and RL algorithms. Remarkably, SNNs equipped with CaRe-BN even surpass their ANN counterparts by $5.9\%$. These results highlight a new direction for BN techniques tailored to RL, paving the way for neuromorphic agents that are both efficient and high-performing.
- Abstract(参考訳): Spiking Neural Networks (SNN) は、生物学的ニューロンの事象駆動力学を模倣して、低レイテンシでエネルギー効率の意思決定をニューロモルフィックハードウェア上で提供する。
しかし、スパイクの離散的かつ微分不可能な性質のため、直接訓練されたSNNは勾配更新を安定させるためにバッチ正規化(BN)に大きく依存する。
オンライン強化学習(RL)では、不正確なBN統計が搾取を妨げるため、収束が遅くなり、準最適政策となる。
この課題は、リソース制約されたデバイスにおけるエネルギー効率制御のためのSNNの採用を制限する。
これを解決するために、BN統計に対する信頼誘導適応更新戦略 (\emph{i}) を導入し、分布を整列する再校正機構 (\emph{ii}) を導入する、信頼適応・再校正バッチ正規化 (CaRe-BN) を提案する。
より正確な正規化を提供することで、CaRe-BNはRLトレーニングプロセスを中断することなくSNN最適化を安定化する。
重要なことに、CaRe-BNは推論を変更せず、デプロイメントにおけるSNNのエネルギー効率を保っている。
連続制御ベンチマークに関する大規模な実験では、CaRe-BNは異なるスパイキングニューロンモデルとRLアルゴリズムでSNNのパフォーマンスを最大22.6 %向上させることを示した。
注目すべきは、CaRe-BNを搭載したSNNがANNを5.9%上回ることだ。
これらの結果は、RLに適合したBN技術の新たな方向性を強調し、効率的かつ高性能なニューロモルフィック剤の道を開いた。
関連論文リスト
- S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - A Self-Ensemble Inspired Approach for Effective Training of Binary-Weight Spiking Neural Networks [66.80058515743468]
トレーニングスパイキングニューラルネットワーク(SNN)とバイナリニューラルネットワーク(BNN)は、差別化不可能なスパイク生成機能のために困難である。
本稿では, バックプロパゲーションプロセスの解析を通じて, SNN の力学とBNN との密接な関係を考察する。
具体的には、複数のショートカットの構造と知識蒸留に基づくトレーニング技術を活用し、(バイナリウェイト)SNNのトレーニングを改善する。
論文 参考訳(メタデータ) (2025-08-18T04:11:06Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [26.105497272647977]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアによる低レイテンシかつエネルギー効率の意思決定を提供する。
近年の研究では、強化学習(RL)アルゴリズムがSNNに適しているかどうかを概観している。
離散SNNと連続制御のギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Towards Accurate Binary Spiking Neural Networks: Learning with Adaptive Gradient Modulation Mechanism [14.425611637823511]
バイナリスパイキングニューラルネットワーク(BSNN)は、SNNのイベント駆動パラダイムを継承すると同時に、バイナライゼーション技術によるストレージ負荷の低減も実現している。
これらの異なるアドバンテージは、BSNNの軽量でエネルギー効率のよい特性を与え、リソース制約のエッジデバイスへのデプロイに最適である。
しかしながら、二成分のシナプス重みと非微分スパイク関数のため、BSNNを効果的に訓練することは未解決の問題である。
論文 参考訳(メタデータ) (2025-02-20T07:59:08Z) - BN-SCAFFOLD: controlling the drift of Batch Normalization statistics in Federated Learning [2.563180814294141]
機械学習(ML)モデルを分散的にトレーニングするための学習パラダイムとして、フェデレートラーニング(FL)が注目を集めている。
バッチ正規化(BN)はディープニューラルネットワーク(DNN)においてユビキタスである
BNは異種FLにおけるDNNの性能を阻害すると報告されている。
BN-DNN設定における分散還元アルゴリズムの収束を解析するための統一理論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:53:20Z) - Converting High-Performance and Low-Latency SNNs through Explicit Modelling of Residual Error in ANNs [27.46147049872907]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率とニューロモルフィックチップの優れた効果のために関心を集めている。
ディープSNNの実装における主要なアプローチの1つは、ANN-SNN変換である。
本稿では,残差を付加雑音として明示的にモデル化した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T14:50:46Z) - STCSNN: High energy efficiency spike-train level spiking neural networks with spatio-temporal conversion [4.892303151981707]
脳時空間スパイクニューロンネットワーク(SNN)は、低電力特性、高い生物学的可視性、強力な情報処理能力により、広く研究の関心を集めている。
SG(Surrogate)を採用することで、SNNの非微分性はトレーニング可能であるが、ANNと同等の精度を実現し、低消費電力機能を同時に維持することは依然として難しい。
本稿では,計算コストが低く高精度な時間変換型エネルギー効率のスパイクニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:27:34Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization [92.23297927690149]
バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
論文 参考訳(メタデータ) (2021-04-16T16:46:57Z) - Batch Normalization Increases Adversarial Vulnerability and Decreases
Adversarial Transferability: A Non-Robust Feature Perspective [91.5105021619887]
バッチ正規化(BN)は、現代のディープニューラルネットワーク(DNN)で広く使われている。
BNは、対向ロバスト性を犠牲にしてモデル精度を高めることが観察された。
BNが主にロバスト特徴(RF)と非ロバスト特徴(NRF)の学習を好んでいるかどうかは不明である。
論文 参考訳(メタデータ) (2020-10-07T10:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。