論文の概要: BadSNN: Backdoor Attacks on Spiking Neural Networks via Adversarial Spiking Neuron
- arxiv url: http://arxiv.org/abs/2602.07200v1
- Date: Fri, 06 Feb 2026 21:20:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.499517
- Title: BadSNN: Backdoor Attacks on Spiking Neural Networks via Adversarial Spiking Neuron
- Title(参考訳): BadSNN: 敵のスパイクニューロンを介してニューラルネットワークをスパイするバックドア攻撃
- Authors: Abdullah Arafat Miah, Kevin Vu, Yu Bi,
- Abstract要約: スパイキングニューラルネットワーク(スパイキングニューラルネットワーク、英: Spiking Neural Networks、SNN)は、ディープニューラルネットワーク(Deep Neural Networks、DNN)のエネルギー効率の高いネットワークである。
本稿では,スパイクニューラルネットワークに対する新たなバックドア攻撃であるtextitBadSNNを提案する。
- 参考スコア(独自算出の注目度): 0.038233569758620044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) are energy-efficient counterparts of Deep Neural Networks (DNNs) with high biological plausibility, as information is transmitted through temporal spiking patterns. The core element of an SNN is the spiking neuron, which converts input data into spikes following the Leaky Integrate-and-Fire (LIF) neuron model. This model includes several important hyperparameters, such as the membrane potential threshold and membrane time constant. Both the DNNs and SNNs have proven to be exploitable by backdoor attacks, where an adversary can poison the training dataset with malicious triggers and force the model to behave in an attacker-defined manner. Yet, how an adversary can exploit the unique characteristics of SNNs for backdoor attacks remains underexplored. In this paper, we propose \textit{BadSNN}, a novel backdoor attack on spiking neural networks that exploits hyperparameter variations of spiking neurons to inject backdoor behavior into the model. We further propose a trigger optimization process to achieve better attack performance while making trigger patterns less perceptible. \textit{BadSNN} demonstrates superior attack performance on various datasets and architectures, as well as compared with state-of-the-art data poisoning-based backdoor attacks and robustness against common backdoor mitigation techniques. Codes can be found at https://github.com/SiSL-URI/BadSNN.
- Abstract(参考訳): スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Networks、SNN)は、ディープ・ニューラル・ニューラルネットワーク(Deep Neural Networks、DNN)のエネルギー効率が良く、生物学的に高い可能性を持つニューラルネットワークである。
SNNの中核要素はスパイクニューロンであり、これはLeaky Integrate-and-Fire(LIF)ニューロンモデルに従って入力データをスパイクに変換する。
このモデルには、膜電位閾値や膜時間定数など、いくつかの重要なハイパーパラメータが含まれている。
DNNとSNNの両方がバックドア攻撃によって悪用されることが証明されており、敵はトレーニングデータセットに悪意のあるトリガーで毒を盛り、攻撃者が定義した方法でモデルを動作させる。
しかし、SNNのユニークな特徴をバックドア攻撃に活用する方法はまだ解明されていない。
本稿では、スパイキングニューロンのハイパーパラメータ変動を利用してバックドア動作をモデルに注入する、スパイキングニューラルネットワークに対する新しいバックドア攻撃である「textit{BadSNN}」を提案する。
さらに,トリガパターンの認識を弱めつつ,より優れた攻撃性能を実現するトリガ最適化プロセスを提案する。
\textit{BadSNN}は、さまざまなデータセットやアーキテクチャに対して優れた攻撃性能を示し、最先端のデータ中毒ベースのバックドアアタックや、一般的なバックドア緩和テクニックに対する堅牢性と比較する。
コードはhttps://github.com/SiSL-URI/BadSNNで参照できる。
関連論文リスト
- Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Sneaky Spikes: Uncovering Stealthy Backdoor Attacks in Spiking Neural
Networks with Neuromorphic Data [15.084703823643311]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率の向上と生物学的に有効なデータ処理機能を提供する。
本稿では,ニューロモルフィックデータセットと多様なトリガーを用いたSNNのバックドア攻撃について検討する。
我々は,攻撃成功率を100%まで達成しつつ,クリーンな精度に無視できる影響を保ちながら,様々な攻撃戦略を提示する。
論文 参考訳(メタデータ) (2023-02-13T11:34:17Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Defending against Backdoor Attack on Deep Neural Networks [79.0484137934143]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。