論文の概要: SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2405.11575v1
- Date: Sun, 19 May 2024 14:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 15:12:36.328158
- Title: SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks
- Title(参考訳): SEEP: バックドア攻撃の軽減のための遅延表現検索のためのトレーニングダイナミクス
- Authors: Xuanli He, Qiongkai Xu, Jun Wang, Benjamin I. P. Rubinstein, Trevor Cohn,
- Abstract要約: 現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
- 参考スコア(独自算出の注目度): 53.28390057407576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern NLP models are often trained on public datasets drawn from diverse sources, rendering them vulnerable to data poisoning attacks. These attacks can manipulate the model's behavior in ways engineered by the attacker. One such tactic involves the implantation of backdoors, achieved by poisoning specific training instances with a textual trigger and a target class label. Several strategies have been proposed to mitigate the risks associated with backdoor attacks by identifying and removing suspected poisoned examples. However, we observe that these strategies fail to offer effective protection against several advanced backdoor attacks. To remedy this deficiency, we propose a novel defensive mechanism that first exploits training dynamics to identify poisoned samples with high precision, followed by a label propagation step to improve recall and thus remove the majority of poisoned instances. Compared with recent advanced defense methods, our method considerably reduces the success rates of several backdoor attacks while maintaining high classification accuracy on clean test sets.
- Abstract(参考訳): 現代のNLPモデルは、様々なソースから抽出されたパブリックデータセットでトレーニングされることが多く、データ中毒攻撃に対して脆弱である。
これらの攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
そのような戦術の1つは、特定のトレーニングインスタンスにテキストトリガーとターゲットクラスラベルで毒を盛ることによって達成されるバックドアの注入である。
バックドア攻撃に関連するリスクを軽減すべく、疑わしい毒のサンプルを特定・除去するいくつかの戦略が提案されている。
しかし、これらの戦略は、いくつかの先進的なバックドア攻撃に対して効果的な防御を提供していない。
この障害を治療するために、まず、トレーニング力学を利用して、高い精度で有毒試料を識別し、次いで、リコールを改善し、ほとんどの有毒試料を除去するラベル形成手順を新たに提案する。
近年の先進防衛法と比較して,クリーンテストセットにおける高い分類精度を維持しつつ,バックドア攻撃の成功率を大幅に低減する。
関連論文リスト
- Wicked Oddities: Selectively Poisoning for Effective Clean-Label Backdoor Attacks [11.390175856652856]
クリーンラベル攻撃は、毒性のあるデータのラベルを変更することなく攻撃を行うことができる、よりステルスなバックドア攻撃である。
本研究は,攻撃成功率を高めるために,標的クラス内の少数の訓練サンプルを選択的に毒殺する方法について検討した。
私たちの脅威モデルは、サードパーティのデータセットで機械学習モデルをトレーニングする上で深刻な脅威となる。
論文 参考訳(メタデータ) (2024-07-15T15:38:21Z) - How to Train a Backdoor-Robust Model on a Poisoned Dataset without Auxiliary Data? [29.842087372804905]
深層ニューラルネットワーク(DNN)に対するセキュリティの脅威により、バックドア攻撃は学術や産業から広く注目を集めている。
既存の手法のほとんどは、異なる戦略でトレーニングデータセットを毒殺することで、バックドア攻撃を行うことを提案する。
本稿では,有害なサンプルを効果的に識別し,有害なデータセット上でクリーンなモデルをトレーニングする,AdvrBDについて紹介する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Defending Against Weight-Poisoning Backdoor Attacks for Parameter-Efficient Fine-Tuning [57.50274256088251]
パラメータ効率のよい微調整(PEFT)は,重み付けによるバックドア攻撃の影響を受けやすいことを示す。
PEFTを利用したPSIM(Poisoned Sample Identification Module)を開発した。
テキスト分類タスク,5つの微調整戦略,および3つの重み付けバックドア攻撃手法について実験を行った。
論文 参考訳(メタデータ) (2024-02-19T14:22:54Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Mitigating Backdoor Poisoning Attacks through the Lens of Spurious
Correlation [43.75579468533781]
バックドアは、特定のトリガーとターゲットラベルでトレーニングインスタンスを作成できる。
本論文は, バックドア毒殺事件は, 単純なテキスト特徴と分類ラベルとの間には明白な相関関係があることを示唆する。
実験により、悪意のあるトリガーはターゲットラベルと高い相関関係があることが判明した。
論文 参考訳(メタデータ) (2023-05-19T11:18:20Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。