論文の概要: Securing the Spike: On the Transferabilty and Security of Spiking Neural
Networks to Adversarial Examples
- arxiv url: http://arxiv.org/abs/2209.03358v1
- Date: Wed, 7 Sep 2022 17:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:27:05.891319
- Title: Securing the Spike: On the Transferabilty and Security of Spiking Neural
Networks to Adversarial Examples
- Title(参考訳): スパイクの確保:スパイクニューラルネットワークの敵の例への転送確率とセキュリティについて
- Authors: Nuo Xu, Kaleel Mahmood, Haowen Fang, Ethan Rathbun, Caiwen Ding, Wujie
Wen
- Abstract要約: スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と近年の分類性能の進歩に多くの注目を集めている。
我々は,SNNに対するホワイトボックス攻撃の成功は,下層のサロゲート勾配技術に大きく依存していることを示す。
視覚変換器や特定の種類のCNNが生成する逆の例によって、SNNがしばしば騙されることはないことを実証する。
- 参考スコア(独自算出の注目度): 12.636499067230544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have attracted much attention for their high
energy efficiency and for recent advances in their classification performance.
However, unlike traditional deep learning approaches, the analysis and study of
the robustness of SNNs to adversarial examples remains relatively
underdeveloped. In this work we advance the field of adversarial machine
learning through experimentation and analyses of three important SNN security
attributes. First, we show that successful white-box adversarial attacks on
SNNs are highly dependent on the underlying surrogate gradient technique.
Second, we analyze the transferability of adversarial examples generated by
SNNs and other state-of-the-art architectures like Vision Transformers and Big
Transfer CNNs. We demonstrate that SNNs are not often deceived by adversarial
examples generated by Vision Transformers and certain types of CNNs. Lastly, we
develop a novel white-box attack that generates adversarial examples capable of
fooling both SNN models and non-SNN models simultaneously. Our experiments and
analyses are broad and rigorous covering two datasets (CIFAR-10 and CIFAR-100),
five different white-box attacks and twelve different classifier models.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と最近の分類性能の進歩に多くの注目を集めている。
しかし、従来のディープラーニング手法とは異なり、SNNの強靭性の分析と研究は比較的未発達のままである。
本研究では,3つの重要なSNNセキュリティ属性の実験と解析を通じて,敵対的機械学習の分野を前進させる。
まず,snsに対するホワイトボックス攻撃の成功は,サブロゲート勾配法に強く依存していることを示す。
第二に、SNNやVision TransformersやBig Transfer CNNといった最先端アーキテクチャが生成する逆例の転送可能性を分析する。
視覚変換器や特定の種類のCNNが生成する逆の例では,SNNがしばしば騙されないことを示す。
最後に、SNNモデルと非SNNモデルの両方を同時に騙すことができる敵の例を生成する新しいホワイトボックス攻撃を開発する。
実験と分析は、2つのデータセット(CIFAR-10とCIFAR-100)、5つの異なるホワイトボックス攻撃、12の異なる分類器モデルをカバーする。
関連論文リスト
- Data Poisoning-based Backdoor Attack Framework against Supervised Learning Rules of Spiking Neural Networks [3.9444202574850755]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費と高ロバスト性で知られている。
本稿では,バックドア攻撃時の教師付き学習規則により訓練されたSNNの堅牢性について検討する。
論文 参考訳(メタデータ) (2024-09-24T02:15:19Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Security-Aware Approximate Spiking Neural Networks [0.0]
AxSNNの構造的パラメータと近似レベルを2塩基勾配と2つのニューロモルフィックアタックで解析した。
我々は,AxSNNのセキュリティのための2つの新しい防御手法,すなわち精度スケーリングと近似量子化対応フィルタリングを提案する。
以上の結果から,AxSNNはAccSNNよりも敵攻撃を受けやすいが,精度スケーリングとAQFはAxSNNの堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-01-12T19:23:15Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。