論文の概要: Accuracy-Robustness Trade Off via Spiking Neural Network Gradient Sparsity Trail
- arxiv url: http://arxiv.org/abs/2509.23762v2
- Date: Mon, 06 Oct 2025 22:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 13:19:51.421047
- Title: Accuracy-Robustness Trade Off via Spiking Neural Network Gradient Sparsity Trail
- Title(参考訳): スパイクニューラルネットワークグラディエント・スパシティ・トレイルによる精度・ロバスト性トレードオフ
- Authors: Nhan T. Luu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、計算神経科学と人工知能の両方への関心が高まっている。
近年の研究では、対向摂動に対する堅牢性を高めるためにスパース勾配を正規化の一形態として活用することを提案した。
特定のアーキテクチャ構成下では、SNNは自然な勾配幅を示し、明示的な正規化を必要とせず、最先端の対角防御性能を達成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) have attracted growing interest in both computational neuroscience and artificial intelligence, primarily due to their inherent energy efficiency and compact memory footprint. However, achieving adversarial robustness in SNNs, particularly for vision-related tasks, remains a nascent and underexplored challenge. Recent studies have proposed leveraging sparse gradients as a form of regularization to enhance robustness against adversarial perturbations. In this work, we present a surprising finding: under specific architectural configurations, SNNs exhibit natural gradient sparsity and can achieve state-of-the-art adversarial defense performance without the need for any explicit regularization. Further analysis reveals a trade-off between robustness and generalization: while sparse gradients contribute to improved adversarial resilience, they can impair the model's ability to generalize; conversely, denser gradients support better generalization but increase vulnerability to attacks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、主にその固有のエネルギー効率とコンパクトなメモリフットプリントのために、計算神経科学と人工知能の両方への関心が高まっている。
しかし、特に視覚関連タスクにおいて、SNNにおける敵の堅牢性を達成することは、初期的で未発見の課題である。
近年の研究では、対向摂動に対する堅牢性を高めるためにスパース勾配を正規化の一形態として活用することを提案した。
本研究では, SNN は, 特定の構造構造の下で自然勾配の空間性を示し, 明示的な正規化を必要とせず, 最先端の対角防御性能を達成できる,という驚くべき発見を提示する。
スパース勾配は対向レジリエンスの改善に寄与するが、モデルの一般化能力を損なう可能性がある。
関連論文リスト
- Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - Temporal Reversal Regularization for Spiking Neural Networks: Hybrid Spatio-Temporal Invariance for Generalization [3.7748662901422807]
スパイキングニューラルネットワーク(SNN)は、超低消費電力コンピューティングパラダイムとして広く注目を集めている。
近年の研究では、SNNは過度なオーバーフィッティングに悩まされ、一般化性能が制限されていることが示されている。
トレーニング中のオーバーフィッティングを緩和し,SNNの一般化を容易にするため, 簡易かつ効果的な時間逆正則化を提案する。
論文 参考訳(メタデータ) (2024-08-17T06:23:38Z) - Beyond Dropout: Robust Convolutional Neural Networks Based on Local Feature Masking [6.189613073024831]
本研究では、畳み込みニューラルネットワーク(CNN)の性能向上を目的とした、革新的なローカル特徴マスキング(LFM)戦略を紹介する。
トレーニング期間中、我々はCNNの浅い層にランダムな特徴マスキングを戦略的に組み込む。
LFMは、ある意味的特徴の欠如を補うために残りの特徴を活用することで、ネットワークを補完する。
論文 参考訳(メタデータ) (2024-07-18T16:25:16Z) - Understanding the Robustness of Graph Neural Networks against Adversarial Attacks [14.89001880258583]
近年の研究では、グラフニューラルネットワーク(GNN)が敵の攻撃に弱いことが示されている。
この脆弱性により、堅牢なGNNの設計に注目が集まっている。
本研究は,GNNの対角的ロバスト性に関する大規模な研究である。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Enhancing Adversarial Robustness in SNNs with Sparse Gradients [46.15229142258264]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率の高い操作と生物学的にインスパイアされた構造に対して大きな注目を集めている。
既存の技術は、ANNから適応したものであれ、SNNのために特別に設計されたものであれ、SNNの訓練や強力な攻撃に対する防御に制限がある。
本稿では,SNNの頑健性を高めるための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T05:39:27Z) - Fixed Inter-Neuron Covariability Induces Adversarial Robustness [26.878913741674058]
敵対的摂動の脆弱性はディープニューラルネットワーク(DNN)の重大な欠陥である
我々は,各ニューロンが固定された,しかし学習された共変性パターンに従うように,活性化が互いに一致したニューロンからなる自己持続活性化層を開発した。
SCA層を持つモデルは高い精度を達成し、対向的な摂動データでトレーニングされることなく、最先端のAuto-PGD攻撃に対して多層パーセプトロンモデルよりもはるかに堅牢性を示した。
論文 参考訳(メタデータ) (2023-08-07T23:46:14Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。