論文の概要: CLIP-Guided Backdoor Defense through Entropy-Based Poisoned Dataset Separation
- arxiv url: http://arxiv.org/abs/2507.05113v1
- Date: Mon, 07 Jul 2025 15:29:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.480849
- Title: CLIP-Guided Backdoor Defense through Entropy-Based Poisoned Dataset Separation
- Title(参考訳): CLIP-Guided Backdoor Defense by Entropy-based Poisoned Dataset separation (特集:一般セッション)
- Authors: Binyan Xu, Fan Yang, Xilin Dai, Di Tang, Kehuan Zhang,
- Abstract要約: ディープニューラルネットワーク(Deep Neural Networks, DNN)は、バックドア攻撃の影響を受ける。
有毒データに対する現在のバックドア防御は、しばしば高い計算コストや、クリーンラベルやクリーンイメージバックドアのような高度な攻撃に対する低い効果に悩まされる。
CLIP誘導型バックドアディフェンス(CGD)は,様々なバックドア攻撃を軽減し,効率的かつ効果的な方法である。
- 参考スコア(独自算出の注目度): 10.162187097557576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are susceptible to backdoor attacks, where adversaries poison training data to implant backdoor into the victim model. Current backdoor defenses on poisoned data often suffer from high computational costs or low effectiveness against advanced attacks like clean-label and clean-image backdoors. To address them, we introduce CLIP-Guided backdoor Defense (CGD), an efficient and effective method that mitigates various backdoor attacks. CGD utilizes a publicly accessible CLIP model to identify inputs that are likely to be clean or poisoned. It then retrains the model with these inputs, using CLIP's logits as a guidance to effectively neutralize the backdoor. Experiments on 4 datasets and 11 attack types demonstrate that CGD reduces attack success rates (ASRs) to below 1% while maintaining clean accuracy (CA) with a maximum drop of only 0.3%, outperforming existing defenses. Additionally, we show that clean-data-based defenses can be adapted to poisoned data using CGD. Also, CGD exhibits strong robustness, maintaining low ASRs even when employing a weaker CLIP model or when CLIP itself is compromised by a backdoor. These findings underscore CGD's exceptional efficiency, effectiveness, and applicability for real-world backdoor defense scenarios. Code: https://github.com/binyxu/CGD.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、被害者モデルにバックドアを埋め込むための有害なトレーニングデータを悪用するバックドア攻撃の影響を受けやすい。
有毒データに対する現在のバックドア防御は、しばしば高い計算コストや、クリーンラベルやクリーンイメージバックドアのような高度な攻撃に対する低い効果に悩まされる。
そこで本研究では,CLIP-Guided Backdoor Defense(CGD)について紹介する。
CGDは、公衆にアクセス可能なCLIPモデルを使用して、クリーンまたは有毒である可能性のある入力を識別する。
その後、これらの入力でモデルをトレーニングし、CLIPのロジットをガイダンスとして使用して、バックドアを効果的に中和する。
4つのデータセットと11の攻撃タイプの実験では、CGDは攻撃成功率(ASR)を1%以下に抑えつつ、最大で0.3%の減少率を維持し、既存の防御よりも優れていたことが示されている。
さらに,クリーンデータに基づく防御をCGDを用いて有毒データに適用できることを示す。
また、CGDは強力な堅牢性を示し、より弱いCLIPモデルを採用する場合や、CLIP自体がバックドアによって侵害された場合でも、低いASRを維持する。
これらの知見は,実世界のバックドア防衛シナリオにおけるCGDの優れた効率性,有効性,適用性を裏付けるものである。
コード:https://github.com/binyxu/CGD。
関連論文リスト
- Data Free Backdoor Attacks [83.10379074100453]
DFBAは、モデルアーキテクチャを変更することなく、リトレーニングフリーでデータフリーのバックドア攻撃である。
我々の注入されたバックドアは、様々な最先端の防御策によって、検出不可能で、検出不能であることを確認した。
複数のデータセットに対する評価では,1) 無視可能な分類損失,2) 攻撃成功率,3) 既存の6つの防御を回避している。
論文 参考訳(メタデータ) (2024-12-09T05:30:25Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Beating Backdoor Attack at Its Own Game [10.106197319676294]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
既存の防御方法は、攻撃の成功率を大幅に低下させた。
有害な試料を標的とした非敵のバックドアを注入する高効率な枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-28T13:07:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。