論文の概要: Magnitude-based Neuron Pruning for Backdoor Defens
- arxiv url: http://arxiv.org/abs/2405.17750v1
- Date: Tue, 28 May 2024 02:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 22:41:57.568151
- Title: Magnitude-based Neuron Pruning for Backdoor Defens
- Title(参考訳): バックドアディフェンダーのためのマグニチュードベースニューロンプルーニング
- Authors: Nan Li, Haoyu Jiang, Ping Yi,
- Abstract要約: ディープニューラルネットワーク(DNN)は、バックドア攻撃に弱いことが知られている。
最近の研究では、特定のニューロン群を刈り取ることで、感染したDNNからバックドアを消去できることが明らかになっている。
バックドアニューロンの検出とプーンのためのMNP法を提案する。
- 参考スコア(独自算出の注目度): 3.056446348447152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are known to be vulnerable to backdoor attacks, posing concerning threats to their reliable deployment. Recent research reveals that backdoors can be erased from infected DNNs by pruning a specific group of neurons, while how to effectively identify and remove these backdoor-associated neurons remains an open challenge. In this paper, we investigate the correlation between backdoor behavior and neuron magnitude, and find that backdoor neurons deviate from the magnitude-saliency correlation of the model. The deviation inspires us to propose a Magnitude-based Neuron Pruning (MNP) method to detect and prune backdoor neurons. Specifically, MNP uses three magnitude-guided objective functions to manipulate the magnitude-saliency correlation of backdoor neurons, thus achieving the purpose of exposing backdoor behavior, eliminating backdoor neurons and preserving clean neurons, respectively. Experiments show our pruning strategy achieves state-of-the-art backdoor defense performance against a variety of backdoor attacks with a limited amount of clean data, demonstrating the crucial role of magnitude for guiding backdoor defenses.
- Abstract(参考訳): Deep Neural Networks(DNN)は、バックドア攻撃の脆弱性として知られており、信頼性の高いデプロイメントに対する脅威を訴えている。
最近の研究では、特定のニューロン群を刈り取ることで、感染したDNNからバックドアを消去できる一方で、これらのバックドア関連ニューロンを効果的に識別し、除去する方法がオープンな課題であることが明らかになっている。
本稿では, バックドアの挙動とニューロンの大きさの相関について検討し, バックドアニューロンがモデルの大きさと精度の相関から逸脱していることを見出した。
この偏差は、バックドアニューロンの検出とプーンを行うために、Magnitude-based Neuron Pruning (MNP)法を提案するきっかけとなった。
具体的には、MNPは3等級誘導された目的関数を用いて、バックドアニューロンの等級・彩度相関を制御し、バックドアニューロンを除去し、クリーンニューロンをそれぞれ保存する目的を達成する。
実験により,最先端のバックドア防御性能を,クリーンなデータしか持たない様々なバックドア攻撃に対して達成し,バックドア防御を導く上で重要な役割を担っていることが示された。
関連論文リスト
- Rethinking Pruning for Backdoor Mitigation: An Optimization Perspective [19.564985801521814]
バックドアモデルの修復に,グラフニューラルネットワーク(GNN)と強化学習(RL)を併用したONP(Optimized Neuron Pruning)法を提案する。
少量のクリーンデータにより、ONPは、無視可能な性能劣化を犠牲にして、バックドアアタックによって埋め込まれたバックドアニューロンを効果的にプルークすることができる。
論文 参考訳(メタデータ) (2024-05-28T01:59:06Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Defense against Backdoor Attacks via Identifying and Purifying Bad
Neurons [36.57541102989073]
本稿では,感染した神経細胞をニューラルネットワークでマークし,浄化するための新しいバックドアディフェンス法を提案する。
良性サリエンス(良性サリエンス)と呼ばれる新しい測定基準は、感染した神経細胞を、バックドアディフェンスで一般的に使用される指標よりも高い精度で識別することができる。
新しいアダプティブ・レギュラー化(AR)機構は、これらの感染した神経細胞の精製を支援するために提案されている。
論文 参考訳(メタデータ) (2022-08-13T01:10:20Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z) - Adversarial Neuron Pruning Purifies Backdoored Deep Models [24.002034537777526]
アドリアリンプルーニング(英語版) (ANP) は、明らかな性能低下を引き起こすことなく、効果的に注入されたバックドアを除去する。
そこで本研究では, 感応性ニューロンをプルークし, 注入したバックドアを浄化する新しいモデル修復法, ANP (Adrial Neuron Pruning) を提案する。
論文 参考訳(メタデータ) (2021-10-27T13:41:53Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。