論文の概要: The Victim and The Beneficiary: Exploiting a Poisoned Model to Train a Clean Model on Poisoned Data
- arxiv url: http://arxiv.org/abs/2404.11265v2
- Date: Fri, 31 May 2024 15:59:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 19:23:22.284644
- Title: The Victim and The Beneficiary: Exploiting a Poisoned Model to Train a Clean Model on Poisoned Data
- Title(参考訳): 被害者と受益者: 汚染されたデータでクリーンなモデルを訓練するために、汚染されたモデルを爆発させる
- Authors: Zixuan Zhu, Rui Wang, Cong Zou, Lihua Jing,
- Abstract要約: バックドア攻撃は、ディープニューラルネットワーク(DNN)のトレーニングプロセスに深刻なセキュリティ上の脅威をもたらしている
The Victim and The Beneficiary (V&B) は有毒なモデルを利用して、余分な良性サンプルを使わずにクリーンなモデルを訓練する。
本フレームワークは,良質な試料の性能を維持しつつ,バックドア注入の防止と各種攻撃に対する堅牢化に有効である。
- 参考スコア(独自算出の注目度): 4.9676716806872125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, backdoor attacks have posed a serious security threat to the training process of deep neural networks (DNNs). The attacked model behaves normally on benign samples but outputs a specific result when the trigger is present. However, compared with the rocketing progress of backdoor attacks, existing defenses are difficult to deal with these threats effectively or require benign samples to work, which may be unavailable in real scenarios. In this paper, we find that the poisoned samples and benign samples can be distinguished with prediction entropy. This inspires us to propose a novel dual-network training framework: The Victim and The Beneficiary (V&B), which exploits a poisoned model to train a clean model without extra benign samples. Firstly, we sacrifice the Victim network to be a powerful poisoned sample detector by training on suspicious samples. Secondly, we train the Beneficiary network on the credible samples selected by the Victim to inhibit backdoor injection. Thirdly, a semi-supervised suppression strategy is adopted for erasing potential backdoors and improving model performance. Furthermore, to better inhibit missed poisoned samples, we propose a strong data augmentation method, AttentionMix, which works well with our proposed V&B framework. Extensive experiments on two widely used datasets against 6 state-of-the-art attacks demonstrate that our framework is effective in preventing backdoor injection and robust to various attacks while maintaining the performance on benign samples. Our code is available at https://github.com/Zixuan-Zhu/VaB.
- Abstract(参考訳): 近年、バックドア攻撃はディープニューラルネットワーク(DNN)のトレーニングプロセスに深刻なセキュリティ上の脅威をもたらしている。
攻撃されたモデルは、通常、良質なサンプルで振る舞うが、トリガーが存在するときに特定の結果を出力する。
しかし、バックドア攻撃の進行と比べ、既存の防御はこれらの脅威に効果的に対処することが困難であり、実際のシナリオでは利用できない良質なサンプルを必要とする。
本稿では, 有毒試料と良性試料を予測エントロピーで識別できることを見出した。
V&B(The Victim and The Beneficiary)は、有害なモデルを利用して、余分な良性サンプルを使わずにクリーンなモデルをトレーニングするものです。
まず、不審なサンプルのトレーニングによって、Victimネットワークを強力な有毒サンプル検出器として犠牲にする。
次に,Besticiary NetworkをVictimによって選択された信頼性サンプル上でトレーニングし,バックドア注入を抑制する。
第3に、潜在的なバックドアを消去し、モデル性能を向上させるための半教師付き抑制戦略を採用する。
さらに,欠落した有毒なサンプルを効果的に抑制するために,提案するV&Bフレームワークとうまく連携する強力なデータ拡張手法であるAttentionMixを提案する。
6つの最先端攻撃に対して広く利用されている2つのデータセットに対する大規模な実験は、我々のフレームワークが良質なサンプルの性能を維持しつつ、バックドア注入を防止し、様々な攻撃に対して堅牢であることを示す。
私たちのコードはhttps://github.com/Zixuan-Zhu/VaB.comで公開されています。
関連論文リスト
- SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Generating Potent Poisons and Backdoors from Scratch with Guided Diffusion [146.05177661746274]
現代のニューラルネットワークは、人間の最小限の検査でウェブスクラップされた大量のデータセットで訓練されることが多い。
本研究では, 誘導拡散法を用いて, スクラッチから塩基サンプルを合成し, より強力な毒性やバックドアを発生させる。
論文 参考訳(メタデータ) (2024-03-25T02:03:38Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Towards A Proactive ML Approach for Detecting Backdoor Poison Samples [38.21287048132065]
広告主は、トレーニングデータセットにバックドア毒サンプルを導入することで、ディープラーニングモデルにバックドアを埋め込むことができる。
本研究は,バックドア攻撃の脅威を軽減するために,このような毒のサンプルを検出する方法について検討する。
論文 参考訳(メタデータ) (2022-05-26T20:44:15Z) - Backdoor Defense via Decoupling the Training Process [46.34744086706348]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では,従来のエンドツーエンドトレーニングプロセスを3段階に分割して,新たなバックドアディフェンスを提案する。
論文 参考訳(メタデータ) (2022-02-05T03:34:01Z) - DeepPoison: Feature Transfer Based Stealthy Poisoning Attack [2.1445455835823624]
DeepPoisonは、1つの発電機と2つの識別器の斬新な敵対ネットワークです。
DeepPoisonは最先端の攻撃成功率を91.74%まで達成できる。
論文 参考訳(メタデータ) (2021-01-06T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。