論文の概要: Robust Spiking Neural Networks Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2602.20548v1
- Date: Tue, 24 Feb 2026 05:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.609033
- Title: Robust Spiking Neural Networks Against Adversarial Attacks
- Title(参考訳): 敵攻撃に対するニューラルネットワークのロバストスパイク
- Authors: Shuai Wang, Malu Zhang, Yulin Jiang, Dehao Zhang, Ammar Belatreche, Yu Liang, Yimeng Shan, Zijian Zhou, Yang Yang, Haizhou Li,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、エネルギー効率のよいニューロモルフィックコンピューティングにおいて有望なパラダイムである。
本研究では, 閾値近傍のスパイクニューロンが直接訓練されたSNNの堅牢性を制限する重要な要因であることを理論的に実証する。
これらのニューロンは、敵の攻撃の最大電位強度の上限を設定しており、小さな障害の下では状態降下する傾向にある。
- 参考スコア(独自算出の注目度): 49.08210314590693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) represent a promising paradigm for energy-efficient neuromorphic computing due to their bio-plausible and spike-driven characteristics. However, the robustness of SNNs in complex adversarial environments remains significantly constrained. In this study, we theoretically demonstrate that those threshold-neighboring spiking neurons are the key factors limiting the robustness of directly trained SNNs. We find that these neurons set the upper limits for the maximum potential strength of adversarial attacks and are prone to state-flipping under minor disturbances. To address this challenge, we propose a Threshold Guarding Optimization (TGO) method, which comprises two key aspects. First, we incorporate additional constraints into the loss function to move neurons' membrane potentials away from their thresholds. It increases SNNs' gradient sparsity, thereby reducing the theoretical upper bound of adversarial attacks. Second, we introduce noisy spiking neurons to transition the neuronal firing mechanism from deterministic to probabilistic, decreasing their state-flipping probability due to minor disturbances. Extensive experiments conducted in standard adversarial scenarios prove that our method significantly enhances the robustness of directly trained SNNs. These findings pave the way for advancing more reliable and secure neuromorphic computing in real-world applications.
- Abstract(参考訳): Spiking Neural Networks (SNN) は、その生物工学的特性とスパイク駆動特性により、エネルギー効率の高いニューロモルフィックコンピューティングのための有望なパラダイムである。
しかし、複雑な対向環境におけるSNNの堅牢性は、依然として著しく制約されている。
本研究では、これらの閾値近傍のスパイクニューロンが、直接訓練されたSNNの堅牢性を制限する重要な要因であることを理論的に実証する。
これらのニューロンは、敵の攻撃の最大電位強度の上限を設定しており、小さな障害の下では状態降下する傾向にある。
この課題に対処するために,2つの重要な側面からなるThreshold Guarding Optimization (TGO)法を提案する。
まず、ロス関数に新たな制約を加えて、ニューロンの膜電位を閾値から遠ざける。
これによりSNNの勾配幅が増加し、理論的には敵攻撃の上限が低下する。
第2に、神経の発火機構を決定論的から確率論的に遷移させ、小障害による状態回復確率を低下させるため、ノイズを誘発するニューロンを導入する。
本手法が直接学習したSNNの堅牢性を大幅に向上させることを示す。
これらの発見は、現実世界のアプリケーションにおいて、より信頼性が高くセキュアなニューロモルフィックコンピューティングを進めるための道を開いた。
関連論文リスト
- General Self-Prediction Enhancement for Spiking Neurons [71.01912385372577]
スパイキングニューラルネットワーク(SNN)は、イベント駆動のスパース計算によって非常にエネルギー効率が良いが、そのトレーニングは、性能、効率、生物学的妥当性の非微分可能性とトレードオフによって困難である。
本稿では,その入力出力履歴から内部予測電流を生成し,膜電位を変調する自己予測強化スパイキングニューロン法を提案する。
この設計には2つの利点があり、失明した勾配を緩和し、トレーニングの安定性と精度を高める連続的な勾配経路を作成し、また遠位樹状突起変調とエラー駆動のシナプス塑性に類似した生物学的原理と整合する。
論文 参考訳(メタデータ) (2026-01-29T15:08:48Z) - Training Deep Normalization-Free Spiking Neural Networks with Lateral Inhibition [52.59263087086756]
深層ニューラルネットワーク(SNN)のトレーニングは、バッチ正規化のような明示的な正規化スキームに依存している。
本研究では,皮質回路にインスパイアされた側方抑制を取り入れた正規化自由学習フレームワークを提案する。
本稿では,生物リアリズムを持つ深層SNNの安定的学習を可能にするとともに,明示的な正規化に頼らずに競争性能を達成できることを述べる。
論文 参考訳(メタデータ) (2025-09-27T11:11:30Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - HoSNN: Adversarially-Robust Homeostatic Spiking Neural Networks with Adaptive Firing Thresholds [4.223946773134886]
スパイキングニューラルネットワーク(SNN)は、有望なニューラルインスパイアされた計算モデルを提供する。
本稿では,ニューロホメオスタシスからインスピレーションを得て,しきい値適応型集積・発火ニューロンモデルの設計を行う。
論文 参考訳(メタデータ) (2023-08-20T21:47:54Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。