論文の概要: Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples
- arxiv url: http://arxiv.org/abs/2202.06312v1
- Date: Sun, 13 Feb 2022 13:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:24:18.210907
- Title: Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples
- Title(参考訳): バックドア防御のための敵の微調整:敵のサンプルとトリガーサンプルを接続する
- Authors: Bingxu Mu and Le Wang and Zhenxing Niu
- Abstract要約: 本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
- 参考スコア(独自算出の注目度): 15.57457705138278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are known to be vulnerable to backdoor attacks,
i.e., a backdoor trigger planted at training time, the infected DNN model would
misclassify any testing sample embedded with the trigger as target label. Due
to the stealthiness of backdoor attacks, it is hard either to detect or erase
the backdoor from infected models. In this paper, we propose a new Adversarial
Fine-Tuning (AFT) approach to erase backdoor triggers by leveraging adversarial
examples of the infected model. For an infected model, we observe that its
adversarial examples have similar behaviors as its triggered samples. Based on
such observation, we design the AFT to break the foundation of the backdoor
attack (i.e., the strong correlation between a trigger and a target label). We
empirically show that, against 5 state-of-the-art backdoor attacks, AFT can
effectively erase the backdoor triggers without obvious performance degradation
on clean samples, which significantly outperforms existing defense methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、バックドア攻撃(つまりトレーニング時に植えられたバックドアトリガー)に対して脆弱であることが知られており、感染したDNNモデルは、トリガーに埋め込まれたテストサンプルをターゲットラベルとして誤分類する。
バックドア攻撃のステルス性のため、感染したモデルからバックドアを検知または消去することは困難である。
本稿では,感染モデルの逆例を利用してバックドアトリガーを消去する新しいadversarial fine-tuning (aft) 手法を提案する。
感染モデルでは, 敵のサンプルはトリガー標本と同様の挙動を示す。
このような観測に基づいて、バックドアアタックの基礎(トリガーとターゲットラベルの強い相関関係)を破るためにAFTを設計する。
AFTは、最先端の5つのバックドア攻撃に対して、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガーを効果的に消去できることを実証的に示す。
関連論文リスト
- DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。