論文の概要: Analysis of Power-Oriented Fault Injection Attacks on Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2204.04768v1
- Date: Sun, 10 Apr 2022 20:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 08:46:10.398336
- Title: Analysis of Power-Oriented Fault Injection Attacks on Spiking Neural
Networks
- Title(参考訳): スパイキングニューラルネットワークにおける電力指向型故障インジェクション攻撃の解析
- Authors: Karthikeyan Nagarajan, Junde Li, Sina Sayyah Ensan, Mohammad Nasim
Imtiaz Khan, Sachhidh Kannan, and Swaroop Ghosh
- Abstract要約: ディープニューラルネットワーク(DNN)の代替手段として,スパイキングニューラルネットワーク(SNN)が急速に普及している。
SNNには、セキュリティに敏感な資産(例えば、ニューロンしきい値電圧)と、敵が悪用できる脆弱性が含まれている。
本研究では,外部電源とレーザ誘起局所電源を用いた大域的障害発生攻撃について検討する。
最悪の場合、分類精度は85.65%低下する。
- 参考スコア(独自算出の注目度): 5.7494562086770955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNN) are quickly gaining traction as a viable
alternative to Deep Neural Networks (DNN). In comparison to DNNs, SNNs are more
computationally powerful and provide superior energy efficiency. SNNs, while
exciting at first appearance, contain security-sensitive assets (e.g., neuron
threshold voltage) and vulnerabilities (e.g., sensitivity of classification
accuracy to neuron threshold voltage change) that adversaries can exploit. We
investigate global fault injection attacks by employing external power supplies
and laser-induced local power glitches to corrupt crucial training parameters
such as spike amplitude and neuron's membrane threshold potential on SNNs
developed using common analog neurons. We also evaluate the impact of
power-based attacks on individual SNN layers for 0% (i.e., no attack) to 100%
(i.e., whole layer under attack). We investigate the impact of the attacks on
digit classification tasks and find that in the worst-case scenario,
classification accuracy is reduced by 85.65%. We also propose defenses e.g., a
robust current driver design that is immune to power-oriented attacks, improved
circuit sizing of neuron components to reduce/recover the adversarial accuracy
degradation at the cost of negligible area and 25% power overhead. We also
present a dummy neuron-based voltage fault injection detection system with 1%
power and area overhead.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の代替手段として,スパイキングニューラルネットワーク(SNN)が急速に普及している。
DNNと比較して、SNNは計算能力が高く、エネルギー効率も優れている。
snnは、一見エキサイティングだが、セキュリティに敏感な資産(例えば、ニューロン閾値電圧)と、敵が悪用できる脆弱性(例えば、ニューロン閾値電圧変化に対する分類精度の感度)を含んでいる。
本研究では, アナログニューロンを用いたSNNにおいて, スパイク振幅やニューロン膜閾値電位などの重要なトレーニングパラメータに, 外部電源とレーザー誘起局所電源を用いた大域的障害注入攻撃について検討した。
また、電力ベースの攻撃が個々のSNN層に与える影響を0%(攻撃なし)から100%(攻撃対象層全体)で評価した。
数値分類タスクにおける攻撃の影響を調査し,最悪の場合,分類精度が85.65%低下することを発見した。
また,電力指向攻撃の影響を受けないロバストな電流ドライバ設計,ニューロンコンポーネントの回路サイズの改善,無視可能な領域と25%の電力オーバーヘッドを犠牲にして,敵対的精度の低下を低減・回復する防御策を提案する。
また,1%の電力と領域のオーバーヘッドを有するダミーニューロンを用いた電圧障害検出システムを提案する。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - Adversarial Defense via Neural Oscillation inspired Gradient Masking [0.0]
スパイクニューラルネットワーク(SNN)は、低消費電力、低レイテンシ、生物学的妥当性のために大きな注目を集めている。
本稿では,SNNの安全性を高めるためにバイオインスパイアされた発振機構を組み込んだ新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T02:13:19Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Energy-Efficient High-Accuracy Spiking Neural Network Inference Using
Time-Domain Neurons [0.18352113484137625]
本稿では低出力高線形時間領域I&Fニューロン回路を提案する。
提案されたニューロンは、MNIST推論において4.3倍のエラー率をもたらす。
提案したニューロン回路で消費される電力は1ニューロンあたり0.230uWとシミュレートされ、これは既存の電圧領域ニューロンよりも桁違いに低い。
論文 参考訳(メタデータ) (2022-02-04T08:24:03Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。