論文の概要: Defense against Backdoor Attacks via Identifying and Purifying Bad
Neurons
- arxiv url: http://arxiv.org/abs/2208.06537v1
- Date: Sat, 13 Aug 2022 01:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:26:18.097740
- Title: Defense against Backdoor Attacks via Identifying and Purifying Bad
Neurons
- Title(参考訳): 有害ニューロンの同定と精製によるバックドア攻撃に対する防御
- Authors: Mingyuan Fan, Yang Liu, Cen Chen, Ximeng Liu, Wenzhong Guo
- Abstract要約: 本稿では,感染した神経細胞をニューラルネットワークでマークし,浄化するための新しいバックドアディフェンス法を提案する。
良性サリエンス(良性サリエンス)と呼ばれる新しい測定基準は、感染した神経細胞を、バックドアディフェンスで一般的に使用される指標よりも高い精度で識別することができる。
新しいアダプティブ・レギュラー化(AR)機構は、これらの感染した神経細胞の精製を支援するために提案されている。
- 参考スコア(独自算出の注目度): 36.57541102989073
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The opacity of neural networks leads their vulnerability to backdoor attacks,
where hidden attention of infected neurons is triggered to override normal
predictions to the attacker-chosen ones. In this paper, we propose a novel
backdoor defense method to mark and purify the infected neurons in the
backdoored neural networks. Specifically, we first define a new metric, called
benign salience. By combining the first-order gradient to retain the
connections between neurons, benign salience can identify the infected neurons
with higher accuracy than the commonly used metric in backdoor defense. Then, a
new Adaptive Regularization (AR) mechanism is proposed to assist in purifying
these identified infected neurons via fine-tuning. Due to the ability to adapt
to different magnitudes of parameters, AR can provide faster and more stable
convergence than the common regularization mechanism in neuron purifying.
Extensive experimental results demonstrate that our method can erase the
backdoor in neural networks with negligible performance degradation.
- Abstract(参考訳): ニューラルネットワークの不透明さによって、感染したニューロンの隠れた注意が引き起こされ、通常の予測をアタッカー・チョーゼンにオーバーライドする。
本稿では,バックドアニューラルネットワークにおける感染ニューロンのマークと浄化のための新しいバックドア防御手法を提案する。
具体的には、まずベニグ・サリエンスと呼ばれる新しい計量を定義する。
神経細胞間の接続を維持するために1次勾配を組み合わせることで、良性塩分は一般的に用いられるバックドア防御の基準よりも高い精度で感染したニューロンを識別することができる。
次に、これらの感染した神経細胞を微調整することで精製する新しい適応正則化(AR)機構を提案する。
異なる大きさのパラメータに適応できるため、ARはニューロンの精製における一般的な正規化機構よりも速くより安定した収束を提供することができる。
広範な実験結果から,本手法は性能劣化を伴わないニューラルネットワークのバックドアを消去できることを示した。
関連論文リスト
- Magnitude-based Neuron Pruning for Backdoor Defens [3.056446348447152]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に弱いことが知られている。
最近の研究では、特定のニューロン群を刈り取ることで、感染したDNNからバックドアを消去できることが明らかになっている。
バックドアニューロンの検出とプーンのためのMNP法を提案する。
論文 参考訳(メタデータ) (2024-05-28T02:05:39Z) - Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。