論文の概要: Few-shot Backdoor Defense Using Shapley Estimation
- arxiv url: http://arxiv.org/abs/2112.14889v1
- Date: Thu, 30 Dec 2021 02:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 15:45:03.181379
- Title: Few-shot Backdoor Defense Using Shapley Estimation
- Title(参考訳): シェープリー推定によるバックドア防御
- Authors: Jiyang Guan, Zhuozhuo Tu, Ran He, Dacheng Tao
- Abstract要約: 我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
- 参考スコア(独自算出の注目度): 123.56934991060788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have achieved impressive performance in a variety of
tasks over the last decade, such as autonomous driving, face recognition, and
medical diagnosis. However, prior works show that deep neural networks are
easily manipulated into specific, attacker-decided behaviors in the inference
stage by backdoor attacks which inject malicious small hidden triggers into
model training, raising serious security threats. To determine the triggered
neurons and protect against backdoor attacks, we exploit Shapley value and
develop a new approach called Shapley Pruning (ShapPruning) that successfully
mitigates backdoor attacks from models in a data-insufficient situation (1
image per class or even free of data). Considering the interaction between
neurons, ShapPruning identifies the few infected neurons (under 1% of all
neurons) and manages to protect the model's structure and accuracy after
pruning as many infected neurons as possible. To accelerate ShapPruning, we
further propose discarding threshold and $\epsilon$-greedy strategy to
accelerate Shapley estimation, making it possible to repair poisoned models
with only several minutes. Experiments demonstrate the effectiveness and
robustness of our method against various attacks and tasks compared to existing
methods.
- Abstract(参考訳): ディープニューラルネットワークは、自律運転、顔認識、医療診断など、過去10年間にさまざまなタスクで顕著なパフォーマンスを達成した。
しかし、以前の研究では、悪意のある小さな隠れたトリガーをモデルトレーニングに注入し、深刻なセキュリティ脅威を引き起こすバックドア攻撃によって、深いニューラルネットワークが推論段階で特定の攻撃的行動に容易に操作できることが示されている。
引き起こされたニューロンを判断し、バックドア攻撃から保護するために、shapley値を利用して、データ不足の状況(クラス1枚かデータなしか)でモデルからバックドア攻撃を緩和する、shapley pruning (shappruning)と呼ばれる新しいアプローチを開発しました。
神経細胞間の相互作用を考慮すると、ShapPruningは数少ない感染ニューロン(全ニューロンの1%以下)を特定し、できるだけ多くの感染ニューロンを切断した後、モデルの構造と精度を保護する。
シャップランニングを加速するために、我々はさらに、シャップリー推定を加速するための廃棄しきい値と$\epsilon$-greedy戦略を提案し、わずか数分で汚染されたモデルを修復できる。
実験では,既存の手法と比較して,様々な攻撃やタスクに対する手法の有効性と堅牢性を示す。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - UNIT: Backdoor Mitigation via Automated Neural Distribution Tightening [43.09750187130803]
ディープニューラルネットワーク(DNN)は様々な分野で有効性を示している。
DNNはバックドアアタックに対して脆弱で、インプットにトリガーと呼ばれるユニークなパターンを注入することで、アタック・チョーゼンターゲットラベルの誤分類を引き起こす。
本稿では, 各種攻撃に対するバックドア効果を効果的に除去する, ポストトレーニング防衛技術を紹介する。
論文 参考訳(メタデータ) (2024-07-16T04:33:05Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Improving Adversarial Transferability via Neuron Attribution-Based
Attacks [35.02147088207232]
本稿では,より正確なニューロン重要度推定を行う機能レベルアタック(NAA)を提案する。
我々は、オーバーヘッドを大幅に減らすために、ニューロンの属性の近似スキームを導出する。
実験により、最先端のベンチマークに対する我々のアプローチの優位性が確認された。
論文 参考訳(メタデータ) (2022-03-31T13:47:30Z) - Backdoor Defense with Machine Unlearning [32.968653927933296]
本研究では,マシン・アンラーニングにより,被害者モデルに注入されたバックドアを消去する新しい手法であるBAERASEを提案する。
BAERASEは、4つのベンチマークデータセットに対して、3種類の最先端バックドア攻撃の攻撃成功率を99%下げることができる。
論文 参考訳(メタデータ) (2022-01-24T09:09:12Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。