論文の概要: Attacking the Spike: On the Transferability and Security of Spiking
Neural Networks to Adversarial Examples
- arxiv url: http://arxiv.org/abs/2209.03358v3
- Date: Fri, 13 Oct 2023 21:19:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 23:37:03.419322
- Title: Attacking the Spike: On the Transferability and Security of Spiking
Neural Networks to Adversarial Examples
- Title(参考訳): スパイク攻撃--スパイクニューラルネットワークの悪意のある例への転送性とセキュリティについて
- Authors: Nuo Xu, Kaleel Mahmood, Haowen Fang, Ethan Rathbun, Caiwen Ding, Wujie
Wen
- Abstract要約: スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と近年の分類性能の進歩に多くの注目を集めている。
従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
我々は,SNNに対するホワイトボックス攻撃の成功は,下層のサロゲート勾配技術に大きく依存していることを示す。
- 参考スコア(独自算出の注目度): 19.227133993690504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have attracted much attention for their high
energy efficiency and for recent advances in their classification performance.
However, unlike traditional deep learning approaches, the analysis and study of
the robustness of SNNs to adversarial examples remain relatively
underdeveloped. In this work, we focus on advancing the adversarial attack side
of SNNs and make three major contributions. First, we show that successful
white-box adversarial attacks on SNNs are highly dependent on the underlying
surrogate gradient technique, even in the case of adversarially trained SNNs.
Second, using the best surrogate gradient technique, we analyze the
transferability of adversarial attacks on SNNs and other state-of-the-art
architectures like Vision Transformers (ViTs) and Big Transfer Convolutional
Neural Networks (CNNs). We demonstrate that the adversarial examples created by
non-SNN architectures are not misclassified often by SNNs. Third, due to the
lack of an ubiquitous white-box attack that is effective across both the SNN
and CNN/ViT domains, we develop a new white-box attack, the Auto Self-Attention
Gradient Attack (Auto-SAGA). Our novel attack generates adversarial examples
capable of fooling both SNN and non-SNN models simultaneously. Auto-SAGA is as
much as $91.1\%$ more effective on SNN/ViT model ensembles and provides a
$3\times$ boost in attack effectiveness on adversarially trained SNN ensembles
compared to conventional white-box attacks like Auto-PGD. Our experiments and
analyses are broad and rigorous covering three datasets (CIFAR-10, CIFAR-100
and ImageNet), five different white-box attacks and nineteen classifier models
(seven for each CIFAR dataset and five models for ImageNet).
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と最近の分類性能の進歩に多くの注目を集めている。
しかし、従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
本研究では,SNNの敵攻撃側の進展に着目し,3つの主要な貢献を行う。
まず,SNNに対するホワイトボックス攻撃の成功は,SNNを相手に訓練した場合でも,サロゲート勾配法に大きく依存していることを示す。
第2に、最高の代理勾配法を用いて、SNNや他の最先端アーキテクチャであるビジョントランスフォーマー(ViT)やBig Transfer Convolutional Neural Networks(CNN)に対する敵攻撃の転送可能性を分析する。
非SNNアーキテクチャが生成する逆例は、しばしばSNNによって誤分類されないことを示す。
第3に、SNNドメインとCNN/ViTドメインの両方で有効なユビキタスなホワイトボックス攻撃がないため、新しいホワイトボックス攻撃であるAuto-Attention Gradient Attack (Auto-SAGA)を開発した。
我々は,SNNモデルと非SNNモデルの両方を同時に騙すことができる敵例を生成する。
Auto-SAGAは、SNN/ViTモデルアンサンブルで最大911.1\%の費用で有効であり、Auto-PGDのような従来のホワイトボックス攻撃と比較して、敵に訓練されたSNNアンサンブルに対する攻撃効果が3ドル以上向上する。
実験と分析は3つのデータセット(CIFAR-10、CIFAR-100、ImageNet)、5つの異なるホワイトボックス攻撃と19の分類器モデル(各CIFARデータセットは7つ、ImageNetは5つのモデル)をカバーする。
関連論文リスト
- Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Security-Aware Approximate Spiking Neural Networks [0.0]
AxSNNの構造的パラメータと近似レベルを2塩基勾配と2つのニューロモルフィックアタックで解析した。
我々は,AxSNNのセキュリティのための2つの新しい防御手法,すなわち精度スケーリングと近似量子化対応フィルタリングを提案する。
以上の結果から,AxSNNはAccSNNよりも敵攻撃を受けやすいが,精度スケーリングとAQFはAxSNNの堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-01-12T19:23:15Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - HIRE-SNN: Harnessing the Inherent Robustness of Energy-Efficient Deep
Spiking Neural Networks by Training with Crafted Input Noise [13.904091056365765]
SNNトレーニングアルゴリズムは,入力ノイズを発生させるとともに,追加のトレーニング時間も発生しない。
通常の訓練された直接入力SNNと比較して、トレーニングされたモデルでは、最大13.7%の分類精度が向上した。
また,本モデルでは,レートコード入力を学習したSNNに対して,攻撃生成画像の分類性能が向上あるいは類似していることが特筆すべき点である。
論文 参考訳(メタデータ) (2021-10-06T16:48:48Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。