論文の概要: Towards Reliable Evaluation of Adversarial Robustness for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2512.22522v1
- Date: Sat, 27 Dec 2025 08:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.095849
- Title: Towards Reliable Evaluation of Adversarial Robustness for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークにおける対向ロバスト性の信頼性評価に向けて
- Authors: Jihang Wang, Dongcheng Zhao, Ruolin Chen, Qian Zhang, Yi Zeng,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、スパイクベースの活性化を利用して、脳のエネルギー効率の高い情報処理を模倣する。
より信頼性の高いSNN対逆ロバスト性評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.939513095038977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Spiking Neural Networks (SNNs) utilize spike-based activations to mimic the brain's energy-efficient information processing. However, the binary and discontinuous nature of spike activations causes vanishing gradients, making adversarial robustness evaluation via gradient descent unreliable. While improved surrogate gradient methods have been proposed, their effectiveness under strong adversarial attacks remains unclear. We propose a more reliable framework for evaluating SNN adversarial robustness. We theoretically analyze the degree of gradient vanishing in surrogate gradients and introduce the Adaptive Sharpness Surrogate Gradient (ASSG), which adaptively evolves the shape of the surrogate function according to the input distribution during attack iterations, thereby enhancing gradient accuracy while mitigating gradient vanishing. In addition, we design an adversarial attack with adaptive step size under the $L_\infty$ constraint-Stable Adaptive Projected Gradient Descent (SA-PGD), achieving faster and more stable convergence under imprecise gradients. Extensive experiments show that our approach substantially increases attack success rates across diverse adversarial training schemes, SNN architectures and neuron models, providing a more generalized and reliable evaluation of SNN adversarial robustness. The experimental results further reveal that the robustness of current SNNs has been significantly overestimated and highlighting the need for more dependable adversarial training methods.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、スパイクベースの活性化を利用して、脳のエネルギー効率の高い情報処理を模倣する。
しかし、スパイクアクティベーションの2次的および不連続な性質は、勾配を消耗させ、勾配降下による対向的ロバスト性評価を信頼できないものにする。
改良された代理勾配法が提案されているが, 強敵攻撃による効果は明らかになっていない。
より信頼性の高いSNN対逆ロバスト性評価フレームワークを提案する。
本研究では, シュロゲート勾配における勾配の消失度を理論的に解析し, アダプティブシャープネス・サロゲート勾配(ASSG)を導入し, 攻撃繰り返しの入力分布に応じて, シュロゲート関数の形状を適応的に変化させることにより, 勾配の消失を緩和しながら勾配の精度を向上する。
さらに,適応的なステップサイズを持つ対向攻撃を,不正確な勾配下でより高速でより安定な収束を実現するために,SA-PGD (Constrictt-Stable Adaptive Projected Gradient Descent) の下で設計する。
広範囲にわたる実験の結果,SNNアーキテクチャ,ニューロンモデルなど多種多様な対戦型トレーニングスキームにおける攻撃成功率を大幅に向上させ,より汎用的で信頼性の高いSNN対戦型ロバスト性の評価を可能にした。
実験の結果,現在のSNNの堅牢性は著しく過大評価され,より信頼性の高い対人訓練法の必要性が強調された。
関連論文リスト
- DS-ATGO: Dual-Stage Synergistic Learning via Forward Adaptive Threshold and Backward Gradient Optimization for Spiking Neural Networks [18.86237064365729]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、効率的で低エネルギーのニューロモルフィックコンピューティングを実現するための有望な道として認識されている。
本稿では,前方適応しきい値と後方動的SGを実現する2段相乗学習アルゴリズムを提案する。
実験結果から,本手法は性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-11-17T06:54:21Z) - Accuracy-Robustness Trade Off via Spiking Neural Network Gradient Sparsity Trail [0.0]
スパイキングニューラルネットワーク(SNN)は、計算神経科学と人工知能の両方への関心が高まっている。
近年の研究では、対向摂動に対する堅牢性を高めるためにスパース勾配を正規化の一形態として活用することを提案した。
特定のアーキテクチャ構成下では、SNNは自然な勾配幅を示し、明示的な正規化を必要とせず、最先端の対角防御性能を達成することができる。
論文 参考訳(メタデータ) (2025-09-28T09:15:33Z) - Enhancing Uncertainty Estimation and Interpretability via Bayesian Non-negative Decision Layer [55.66973223528494]
本研究では, ディープニューラルネットワークを条件付きベイズ非負因子分析として再構成したベイズ非負決定層(BNDL)を開発した。
BNDLは複雑な依存関係をモデル化し、堅牢な不確実性推定を提供する。
また,BNDLが効果的に不整合学習を達成できるという理論的保証も提供する。
論文 参考訳(メタデータ) (2025-05-28T10:23:34Z) - Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation [15.362394334872077]
逆知識蒸留(Inverse Knowledge Distillation, IKD)は, 対向移動性を効果的に向上するように設計されている。
IKDは勾配に基づく攻撃手法を統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
ImageNetデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-24T09:35:30Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z) - Exploring Adversarial Attack in Spiking Neural Networks with
Spike-Compatible Gradient [29.567395824544437]
我々は,教師付きアルゴリズムによって訓練されたSNNに対する敵攻撃手法を構築した。
この研究は、SNN攻撃で何が起こるかを明らかにするのに役立ち、SNNモデルとニューロモルフィックデバイスのセキュリティに関するさらなる研究を刺激する可能性がある。
論文 参考訳(メタデータ) (2020-01-01T18:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。