論文の概要: Exploring Adversarial Attack in Spiking Neural Networks with
Spike-Compatible Gradient
- arxiv url: http://arxiv.org/abs/2001.01587v2
- Date: Wed, 30 Sep 2020 22:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 09:10:18.467707
- Title: Exploring Adversarial Attack in Spiking Neural Networks with
Spike-Compatible Gradient
- Title(参考訳): スパイク互換勾配を持つスパイクニューラルネットワークの逆攻撃探索
- Authors: Ling Liang, Xing Hu, Lei Deng, Yujie Wu, Guoqi Li, Yufei Ding, Peng
Li, Yuan Xie
- Abstract要約: 我々は,教師付きアルゴリズムによって訓練されたSNNに対する敵攻撃手法を構築した。
この研究は、SNN攻撃で何が起こるかを明らかにするのに役立ち、SNNモデルとニューロモルフィックデバイスのセキュリティに関するさらなる研究を刺激する可能性がある。
- 参考スコア(独自算出の注目度): 29.567395824544437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, backpropagation through time inspired learning algorithms are
widely introduced into SNNs to improve the performance, which brings the
possibility to attack the models accurately given Spatio-temporal gradient
maps. We propose two approaches to address the challenges of gradient input
incompatibility and gradient vanishing. Specifically, we design a gradient to
spike converter to convert continuous gradients to ternary ones compatible with
spike inputs. Then, we design a gradient trigger to construct ternary gradients
that can randomly flip the spike inputs with a controllable turnover rate, when
meeting all zero gradients. Putting these methods together, we build an
adversarial attack methodology for SNNs trained by supervised algorithms.
Moreover, we analyze the influence of the training loss function and the firing
threshold of the penultimate layer, which indicates a "trap" region under the
cross-entropy loss that can be escaped by threshold tuning. Extensive
experiments are conducted to validate the effectiveness of our solution.
Besides the quantitative analysis of the influence factors, we evidence that
SNNs are more robust against adversarial attack than ANNs. This work can help
reveal what happens in SNN attack and might stimulate more research on the
security of SNN models and neuromorphic devices.
- Abstract(参考訳): 近年,時間にインスパイアされた学習アルゴリズムによるバックプロパゲーションがSNNに広く導入され,性能の向上が図られている。
本稿では,勾配入力不整合性と勾配消滅の課題に対処する2つの手法を提案する。
具体的には、スパイクインプットと互換性のある3次勾配に変換するために、スパイクコンバータへの勾配を設計する。
そして、3次勾配を設計し、すべてのゼロ勾配を満たすとき、スパイク入力を制御可能な回転率でランダムに反転させることができる。
これらの手法を組み合わせることで、教師付きアルゴリズムによって訓練されたSNNに対する敵攻撃手法を構築する。
さらに,トレーニング損失関数と,しきい値調整によって回避可能なクロスエントロピー損失下の「トラップ」領域を示すペナルティ層の発射しきい値の影響を解析した。
ソリューションの有効性を検証するために,広範な実験を行った。
影響要因の定量的分析に加えて、SNNはANNよりも敵攻撃に対して堅牢であることを示す。
この研究は、SNN攻撃で何が起こるかを明らかにするのに役立ち、SNNモデルとニューロモルフィックデバイスのセキュリティに関するさらなる研究を促進する可能性がある。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Gradient Scaling on Deep Spiking Neural Networks with Spike-Dependent
Local Information [2.111711135667053]
我々は、スパイキングバックプロパゲーション(STBP)と代理勾配を併用したディープニューラルネットワーク(SNN)を訓練する。
本研究では,時間前スパイクと時間後スパイクの関係である局所スパイク情報のスケーリングによる勾配について検討した。
スパイク間の因果関係を考えると、深層SNNの訓練を強化することができる。
論文 参考訳(メタデータ) (2023-08-01T13:58:21Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - SPIDE: A Purely Spike-based Method for Training Feedback Spiking Neural
Networks [56.35403810762512]
イベントベースの計算を伴うスパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアにおけるエネルギー効率の高い応用のために、脳にインスパイアされたモデルを約束している。
本研究では,最近提案されたトレーニング手法を拡張した平衡状態(SPIDE)に対するスパイクに基づく暗黙差分法について検討した。
論文 参考訳(メタデータ) (2023-02-01T04:22:59Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - A temporally and spatially local spike-based backpropagation algorithm
to enable training in hardware [0.0]
Spiking Neural Networks (SNN)は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
論文 参考訳(メタデータ) (2022-07-20T08:57:53Z) - On the Robustness of Bayesian Neural Networks to Adversarial Attacks [11.277163381331137]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
BNN後部分布に対する損失の予測勾配は、後部からサンプリングされた各ニューラルネットワークが勾配に基づく攻撃に対して脆弱である場合でも消滅していることを示す。
論文 参考訳(メタデータ) (2022-07-13T12:27:38Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Dynamically Sampled Nonlocal Gradients for Stronger Adversarial Attacks [3.055601224691843]
深層ニューラルネットワークの脆弱性は、小さな、さらには知覚不能な摂動にも影響し、ディープラーニング研究の中心的なトピックとなっている。
脆弱性防御機構として動的に動的に非局所グラディエント蛍光(DSNGD)を提案する。
DSNGDベースの攻撃は平均35%高速であり、勾配降下型攻撃よりも0.9%から27.1%高い成功率を示した。
論文 参考訳(メタデータ) (2020-11-05T08:55:24Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Learning Precise Spike Timings with Eligibility Traces [1.3190581566723916]
我々は,e-propの可視性方程式の中で,STDP対応のシナプス勾配が自然に現れることを示す。
また、同様の勾配を提供するLIFモデルの簡単な拡張も提示する。
簡単な実験で、STDP対応LIFニューロンは、電子プロップに基づく勾配信号から正確なスパイクタイミングを学習できることを示した。
論文 参考訳(メタデータ) (2020-05-08T09:19:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。