論文の概要: Prototype-Guided Robust Learning against Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2509.08748v1
- Date: Wed, 03 Sep 2025 14:41:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.510752
- Title: Prototype-Guided Robust Learning against Backdoor Attacks
- Title(参考訳): バックドア攻撃に対するプロトタイプ誘導ロバスト学習
- Authors: Wei Guo, Maura Pintor, Ambra Demontis, Battista Biggio,
- Abstract要約: バックドア攻撃はトレーニングデータに毒を加え、モデルにバックドアを埋め込む。
本稿では,PGRL(Prototype-Guided Robust Learning)を提案する。
- 参考スコア(独自算出の注目度): 16.60001324267935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks poison the training data to embed a backdoor in the model, causing it to behave normally on legitimate inputs but maliciously when specific trigger signals appear. Training a benign model from a dataset poisoned by backdoor attacks is challenging. Existing works rely on various assumptions and can only defend against backdoor attacks with specific trigger signals, high poisoning ratios, or when the defender possesses a large, untainted, validation dataset. In this paper, we propose a defense called Prototype-Guided Robust Learning (PGRL), which overcomes all the aforementioned limitations, being robust against diverse backdoor attacks. Leveraging a tiny set of benign samples, PGRL generates prototype vectors to guide the training process. We compare our PGRL with 8 existing defenses, showing that it achieves superior robustness. We also demonstrate that PGRL generalizes well across various architectures, datasets, and advanced attacks. Finally, to evaluate our PGRL in the worst-case scenario, we perform an adaptive attack, where the attackers fully know the details of the defense.
- Abstract(参考訳): バックドア攻撃はトレーニングデータを悪用し、モデルにバックドアを埋め込む。
バックドア攻撃で汚染されたデータセットから良心的なモデルをトレーニングすることは難しい。
既存の作業は様々な仮定に依存しており、特定のトリガー信号、高い中毒率、あるいはディフェンダーが大きな、未確認の検証データセットを持っている場合にのみ、バックドア攻撃を防御することができる。
本稿では,PGRL(Prototype-Guided Robust Learning)と呼ばれる,前述のすべての制限を克服し,多様なバックドア攻撃に対して堅牢な防御手法を提案する。
少数の良性サンプルを活用することで、PGRLはトレーニングプロセスのガイドとなるプロトタイプベクターを生成する。
我々はPGRLを既存の8つの防御と比べ、優れた堅牢性を実現することを示す。
また、PGRLは様々なアーキテクチャ、データセット、高度な攻撃にまたがってうまく一般化されていることを実証する。
最後に、最悪のシナリオでPGRLを評価するために、アダプティブアタックを行い、攻撃者は防御の詳細を完全に把握する。
関連論文リスト
- Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Defending against Insertion-based Textual Backdoor Attacks via
Attribution [18.935041122443675]
本稿では,2つの挿入型毒殺攻撃を防ぎ,効果的な帰属型パイプラインであるAttDefを提案する。
具体的には、より大きな帰属語が誤予測結果に寄与するため、より大きな帰属スコアを持つトークンを潜在的トリガーとみなす。
提案手法は2つの共通攻撃シナリオにおいて十分に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-05-03T19:29:26Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。