論文の概要: MPD-SGR: Robust Spiking Neural Networks with Membrane Potential Distribution-Driven Surrogate Gradient Regularization
- arxiv url: http://arxiv.org/abs/2511.12199v2
- Date: Tue, 18 Nov 2025 15:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.77719
- Title: MPD-SGR: Robust Spiking Neural Networks with Membrane Potential Distribution-Driven Surrogate Gradient Regularization
- Title(参考訳): MPD-SGR:膜電位分布駆動型サロゲート勾配正規化を用いたロバストスパイクニューラルネットワーク
- Authors: Runhao Jiang, Chengzhi Jiang, Rui Yan, Huajin Tang,
- Abstract要約: シュロゲート勾配法(SG法)は、ディープスパイキングニューラルネットワーク(SNN)の性能向上に有望であることを示す。
本研究では,MPDとSGの関係と,SNNの堅牢性向上への意義について検討する。
本稿では,SG関数との相互作用に基づいてMPDを明示的に正規化することにより,ロバスト性を高めるMPD-SGR法を提案する。
- 参考スコア(独自算出の注目度): 34.9661794355852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The surrogate gradient (SG) method has shown significant promise in enhancing the performance of deep spiking neural networks (SNNs), but it also introduces vulnerabilities to adversarial attacks. Although spike coding strategies and neural dynamics parameters have been extensively studied for their impact on robustness, the critical role of gradient magnitude, which reflects the model's sensitivity to input perturbations, remains underexplored. In SNNs, the gradient magnitude is primarily determined by the interaction between the membrane potential distribution (MPD) and the SG function. In this study, we investigate the relationship between the MPD and SG and their implications for improving the robustness of SNNs. Our theoretical analysis reveals that reducing the proportion of membrane potentials lying within the gradient-available range of the SG function effectively mitigates the sensitivity of SNNs to input perturbations. Building upon this insight, we propose a novel MPD-driven surrogate gradient regularization (MPD-SGR) method, which enhances robustness by explicitly regularizing the MPD based on its interaction with the SG function. Extensive experiments across multiple image classification benchmarks and diverse network architectures confirm that the MPD-SGR method significantly enhances the resilience of SNNs to adversarial perturbations and exhibits strong generalizability across diverse network configurations, SG functions, and spike encoding schemes.
- Abstract(参考訳): シュロゲート勾配(SG)法は、ディープスパイキングニューラルネットワーク(SNN)の性能を高める上で大きな可能性を示しているが、敵の攻撃に対する脆弱性も導入している。
スパイク符号化戦略とニューラルダイナミクスパラメータは、ロバスト性への影響について広く研究されているが、モデルが入力摂動に敏感であることを反映した勾配の等級の重要な役割は、いまだに解明されていない。
SNNでは、勾配度は主に膜電位分布(MPD)とSG関数の相互作用によって決定される。
本研究では,MPDとSGの関係と,SNNの堅牢性向上への意義について検討する。
解析の結果,SG関数の勾配範囲内に存在する膜電位の減少は,入力摂動に対するSNNの感度を効果的に緩和することが明らかとなった。
この知見に基づいて,SG関数との相互作用に基づいてMPDを明示的に正規化することにより,ロバスト性を高めるMPD-SGR法を提案する。
複数の画像分類ベンチマークと多様なネットワークアーキテクチャにわたる大規模な実験により、MPD-SGR法はSNNの逆摂動に対するレジリエンスを著しく向上させ、多様なネットワーク構成、SG関数、スパイク符号化スキームにまたがる強力な一般化性を示すことが確認された。
関連論文リスト
- DS-ATGO: Dual-Stage Synergistic Learning via Forward Adaptive Threshold and Backward Gradient Optimization for Spiking Neural Networks [18.86237064365729]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、効率的で低エネルギーのニューロモルフィックコンピューティングを実現するための有望な道として認識されている。
本稿では,前方適応しきい値と後方動的SGを実現する2段相乗学習アルゴリズムを提案する。
実験結果から,本手法は性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-11-17T06:54:21Z) - Adaptive Gradient Learning for Spiking Neural Networks by Exploiting Membrane Potential Dynamics [23.205286200919673]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、効率的で低エネルギーのニューロモルフィックコンピューティングを実現するための有望な道として認識されている。
スパイクがニューロン間で伝播するにつれて、膜電位ダイナミクス(MPD)の分布は固定されたSGの勾配可能な間隔から逸脱する。
本稿では,MPD,すなわちMPD-AGLを利用してSNNの適応勾配学習を提案する。
論文 参考訳(メタデータ) (2025-05-17T06:06:13Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - Towards Effective and Sparse Adversarial Attack on Spiking Neural Networks via Breaking Invisible Surrogate Gradients [13.489843266719896]
スパイキングニューラルネットワーク(SNN)は、勾配に基づく敵攻撃に対して脆弱である。
本稿では,SGとモデル間のロバストな接続を確立するために,革新的な電位依存サロゲート勾配(PDSG)法を提案する。
また,バイナリダイナミックイメージを効果的に攻撃するためのスパースダイナミックアタック(SDA)を提案する。
論文 参考訳(メタデータ) (2025-03-05T08:52:55Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Membrane Potential Distribution Adjustment and Parametric Surrogate
Gradient in Spiking Neural Networks [3.485537704990941]
この問題を回避し、SNNをゼロから訓練するために、SG戦略を調査し、適用した。
パラメトリックサロゲート勾配(PSG)法を提案し,SGを反復的に更新し,最終的に最適なサロゲート勾配パラメータを決定する。
実験結果から,提案手法は時間によるバックプロパゲーション(BPTT)アルゴリズムと容易に統合可能であることが示された。
論文 参考訳(メタデータ) (2023-04-26T05:02:41Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。