論文の概要: Unsupervised Backdoor Detection and Mitigation for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2510.06629v1
- Date: Wed, 08 Oct 2025 04:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.290009
- Title: Unsupervised Backdoor Detection and Mitigation for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークの教師なしバックドア検出と緩和
- Authors: Jiachen Li, Bang Wu, Xiaoyu Xia, Xiaoning Liu, Xun Yi, Xiuzhen Zhang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)と比較してエネルギー効率が優れていることに注目が集まっている。
本稿では、SNNにおける従来のバックドア防御を阻害するキーブロッカーを特定し、これらの課題を克服するための教師なしポストトレーニング検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.808102627400665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have gained increasing attention for their superior energy efficiency compared to Artificial Neural Networks (ANNs). However, their security aspects, particularly under backdoor attacks, have received limited attention. Existing defense methods developed for ANNs perform poorly or can be easily bypassed in SNNs due to their event-driven and temporal dependencies. This paper identifies the key blockers that hinder traditional backdoor defenses in SNNs and proposes an unsupervised post-training detection framework, Temporal Membrane Potential Backdoor Detection (TMPBD), to overcome these challenges. TMPBD leverages the maximum margin statistics of temporal membrane potential (TMP) in the final spiking layer to detect target labels without any attack knowledge or data access. We further introduce a robust mitigation mechanism, Neural Dendrites Suppression Backdoor Mitigation (NDSBM), which clamps dendritic connections between early convolutional layers to suppress malicious neurons while preserving benign behaviors, guided by TMP extracted from a small, clean, unlabeled dataset. Extensive experiments on multiple neuromorphic benchmarks and state-of-the-art input-aware dynamic trigger attacks demonstrate that TMPBD achieves 100% detection accuracy, while NDSBM reduces the attack success rate from 100% to 8.44%, and to 2.81% when combined with detection, without degrading clean accuracy.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、ニューラルネットワーク(ANN)と比較してエネルギー効率が優れていることに注目が集まっている。
しかし、そのセキュリティ面、特にバックドア攻撃では、あまり注目されていない。
ANN用に開発された既存の防御手法は、イベント駆動型と時間的依存関係のため、SNNではパフォーマンスが悪く、あるいは容易にバイパスできる。
本稿では、SNNにおける従来のバックドア防御を阻害するキーブロッカーを特定し、これらの課題を克服するための訓練後検出フレームワークTMPBD(Temporal membrane potential Backdoor Detection)を提案する。
TMPBDは、最終スパイキング層における時間膜電位(TMP)の最大マージン統計を利用して、攻撃知識やデータアクセスなしに標的ラベルを検出する。
さらに, ニューラルネットワークによる抑制機構であるニューラルデンドライト抑制バックドア除去(NDSBM)を導入し, 初期の畳み込み層間の樹状結合を切断し, 有害なニューロンを抑えつつ, 良性な行動を保ちながら, 小型でクリーンで未ラベルのデータセットから抽出したTMPによって誘導される。
複数のニューロモルフィック・ベンチマークと最先端のインプット・アウェア・ダイナミック・トリガー・アタックによる大規模な実験では、TMPBDが100%検出精度を達成し、NDSBMは100%から8.44%に、検出と組み合わせると2.81%に低下する。
関連論文リスト
- Towards Robust Spiking Neural Networks:Mitigating Heterogeneous Training Vulnerability via Dominant Eigencomponent Projection [21.5491519186604]
スパイクニューラルネットワーク(SNN)は離散的なスパイクを通じて情報を処理し、極めて低いエネルギーレベルで操作することができる。
実験では、SNNがメインストリームのメソッドを使ってトレーニングされている場合、直接エンコーディングと時間によるバックプロパゲーションが組み合わさると、重大な脆弱性が明らかになる。
論文 参考訳(メタデータ) (2025-05-16T11:29:49Z) - BDefects4NN: A Backdoor Defect Database for Controlled Localization Studies in Neural Networks [65.666913051617]
ローカライゼーション研究のための最初のバックドア欠陥データベースであるBDefects4NNを紹介する。
BDefects4NNは、ラベル付きバックドア欠陥DNNを神経細胞の粒度で提供し、欠陥根の原因の制御された局在化研究を可能にする。
本研究は, バックドア欠陥に対して限られた有効性を示す6つの障害局所化基準と2つの欠陥修復手法の評価実験を行った。
論文 参考訳(メタデータ) (2024-12-01T09:52:48Z) - Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning [4.623498459985644]
ULRL(UnLearn and ReLearn for backdoor removal)を提案する。
提案手法はまず,ネットワークの損失を小さなクリーンデータセット上で意図的に最大化する未学習フェーズを用いる。
再学習段階では、これらの疑わしいニューロンは、標的の再初期化とコサイン類似性規則化を用いて再分類される。
論文 参考訳(メタデータ) (2024-05-23T16:49:09Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - Adversarial Neuron Pruning Purifies Backdoored Deep Models [24.002034537777526]
アドリアリンプルーニング(英語版) (ANP) は、明らかな性能低下を引き起こすことなく、効果的に注入されたバックドアを除去する。
そこで本研究では, 感応性ニューロンをプルークし, 注入したバックドアを浄化する新しいモデル修復法, ANP (Adrial Neuron Pruning) を提案する。
論文 参考訳(メタデータ) (2021-10-27T13:41:53Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。