論文の概要: Toward Spiking Neural Network Local Learning Modules Resistant to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2504.08897v1
- Date: Fri, 11 Apr 2025 18:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:56:11.017465
- Title: Toward Spiking Neural Network Local Learning Modules Resistant to Adversarial Attacks
- Title(参考訳): 敵攻撃に抵抗するニューラルネットワーク局所学習モジュールのスパイキングに向けて
- Authors: Jiaqi Lin, Abhronil Sengupta,
- Abstract要約: 最近の研究では、敵対的な例としてスパイキングニューラルネットワーク(SNN)の脆弱性が示されている。
本稿では,敵インスタンスの転送可能性を活用するハイブリッド攻撃パラダイムを提案する。
提案手法は,既存の攻撃手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.3312335998006306
- License:
- Abstract: Recent research has shown the vulnerability of Spiking Neural Networks (SNNs) under adversarial examples that are nearly indistinguishable from clean data in the context of frame-based and event-based information. The majority of these studies are constrained in generating adversarial examples using Backpropagation Through Time (BPTT), a gradient-based method which lacks biological plausibility. In contrast, local learning methods, which relax many of BPTT's constraints, remain under-explored in the context of adversarial attacks. To address this problem, we examine adversarial robustness in SNNs through the framework of four types of training algorithms. We provide an in-depth analysis of the ineffectiveness of gradient-based adversarial attacks to generate adversarial instances in this scenario. To overcome these limitations, we introduce a hybrid adversarial attack paradigm that leverages the transferability of adversarial instances. The proposed hybrid approach demonstrates superior performance, outperforming existing adversarial attack methods. Furthermore, the generalizability of the method is assessed under multi-step adversarial attacks, adversarial attacks in black-box FGSM scenarios, and within the non-spiking domain.
- Abstract(参考訳): 最近の研究では、フレームベースおよびイベントベース情報のコンテキストにおけるクリーンデータとほとんど区別できない敵の例の下で、スパイキングニューラルネットワーク(SNN)の脆弱性が示されている。
これらの研究の大部分は、生物学的な妥当性に欠ける勾配に基づく手法であるBackproagation Through Time (BPTT)を用いて、敵対的な例を生成することに制約されている。
対照的に、BPTTの制約の多くを緩和する局所学習法は、敵対的攻撃の文脈において未探索のままである。
この問題に対処するために,4種類の学習アルゴリズムの枠組みを用いて,SNNの対向ロバスト性を検討する。
本研究では, このシナリオにおいて, 逆攻撃を発生させるために, 勾配に基づく逆攻撃の非効率性を詳細に解析する。
これらの制限を克服するために、敵インスタンスの転送可能性を活用するハイブリッド敵攻撃パラダイムを導入する。
提案手法は,既存の攻撃手法よりも優れた性能を示す。
さらに,マルチステップの敵攻撃,ブラックボックスFGSMシナリオにおける敵攻撃,および非スパイク領域内において,本手法の一般化性を評価する。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Beyond Empirical Risk Minimization: Local Structure Preserving
Regularization for Improving Adversarial Robustness [28.853413482357634]
局所構造保存(LSP)正則化は、学習された埋め込み空間における入力空間の局所構造を保存することを目的としている。
本研究では,学習した埋め込み空間における入力空間の局所構造を保存することを目的とした,新しい局所構造保存(LSP)正規化を提案する。
論文 参考訳(メタデータ) (2023-03-29T17:18:58Z) - Defending Observation Attacks in Deep Reinforcement Learning via
Detection and Denoising [3.2023814100005907]
外部環境が管理する観測空間における摂動として現れる攻撃は、政策性能を低下させる。
これらの攻撃を防御するために,検出・復号化スキーマを用いた新しい防衛戦略を提案する。
我々のソリューションは攻撃中の環境でのサンプリングデータを必要としないため、トレーニング中のリスクを大幅に低減する。
論文 参考訳(メタデータ) (2022-06-14T22:28:30Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Improving Adversarial Robustness by Enforcing Local and Global
Compactness [19.8818435601131]
敵の訓練は、広範囲の攻撃に一貫して抵抗する最も成功した方法である。
本稿では,局所的・言語的コンパクト性とクラスタリングの仮定を強制する分散分散化ネットワークを提案する。
実験の結果,提案するコンポーネントによる対人訓練の強化は,ネットワークの堅牢性をさらに向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-10T00:43:06Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。