論文の概要: CLIP-Guided Backdoor Defense through Entropy-Based Poisoned Dataset Separation
- arxiv url: http://arxiv.org/abs/2507.05113v1
- Date: Mon, 07 Jul 2025 15:29:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.480849
- Title: CLIP-Guided Backdoor Defense through Entropy-Based Poisoned Dataset Separation
- Title(参考訳): CLIP-Guided Backdoor Defense by Entropy-based Poisoned Dataset separation (特集:一般セッション)
- Authors: Binyan Xu, Fan Yang, Xilin Dai, Di Tang, Kehuan Zhang,
- Abstract要約: ディープニューラルネットワーク(Deep Neural Networks, DNN)は、バックドア攻撃の影響を受ける。
有毒データに対する現在のバックドア防御は、しばしば高い計算コストや、クリーンラベルやクリーンイメージバックドアのような高度な攻撃に対する低い効果に悩まされる。
CLIP誘導型バックドアディフェンス(CGD)は,様々なバックドア攻撃を軽減し,効率的かつ効果的な方法である。
- 参考スコア(独自算出の注目度): 10.162187097557576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are susceptible to backdoor attacks, where adversaries poison training data to implant backdoor into the victim model. Current backdoor defenses on poisoned data often suffer from high computational costs or low effectiveness against advanced attacks like clean-label and clean-image backdoors. To address them, we introduce CLIP-Guided backdoor Defense (CGD), an efficient and effective method that mitigates various backdoor attacks. CGD utilizes a publicly accessible CLIP model to identify inputs that are likely to be clean or poisoned. It then retrains the model with these inputs, using CLIP's logits as a guidance to effectively neutralize the backdoor. Experiments on 4 datasets and 11 attack types demonstrate that CGD reduces attack success rates (ASRs) to below 1% while maintaining clean accuracy (CA) with a maximum drop of only 0.3%, outperforming existing defenses. Additionally, we show that clean-data-based defenses can be adapted to poisoned data using CGD. Also, CGD exhibits strong robustness, maintaining low ASRs even when employing a weaker CLIP model or when CLIP itself is compromised by a backdoor. These findings underscore CGD's exceptional efficiency, effectiveness, and applicability for real-world backdoor defense scenarios. Code: https://github.com/binyxu/CGD.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、被害者モデルにバックドアを埋め込むための有害なトレーニングデータを悪用するバックドア攻撃の影響を受けやすい。
有毒データに対する現在のバックドア防御は、しばしば高い計算コストや、クリーンラベルやクリーンイメージバックドアのような高度な攻撃に対する低い効果に悩まされる。
そこで本研究では,CLIP-Guided Backdoor Defense(CGD)について紹介する。
CGDは、公衆にアクセス可能なCLIPモデルを使用して、クリーンまたは有毒である可能性のある入力を識別する。
その後、これらの入力でモデルをトレーニングし、CLIPのロジットをガイダンスとして使用して、バックドアを効果的に中和する。
4つのデータセットと11の攻撃タイプの実験では、CGDは攻撃成功率(ASR)を1%以下に抑えつつ、最大で0.3%の減少率を維持し、既存の防御よりも優れていたことが示されている。
さらに,クリーンデータに基づく防御をCGDを用いて有毒データに適用できることを示す。
また、CGDは強力な堅牢性を示し、より弱いCLIPモデルを採用する場合や、CLIP自体がバックドアによって侵害された場合でも、低いASRを維持する。
これらの知見は,実世界のバックドア防衛シナリオにおけるCGDの優れた効率性,有効性,適用性を裏付けるものである。
コード:https://github.com/binyxu/CGD。
関連論文リスト
- BeDKD: Backdoor Defense based on Dynamic Knowledge Distillation and Directional Mapping Modulator [9.581510737256389]
指向性マッピングモジュールと対角的知識蒸留(BeDKD)に基づく新しいバックドア防御手法を提案する。
BeDKDは最先端の防御を克服し、CACCを大幅に削減することなく、ASRを98%削減する。
論文 参考訳(メタデータ) (2025-08-03T05:28:01Z) - Data Free Backdoor Attacks [83.10379074100453]
DFBAは、モデルアーキテクチャを変更することなく、リトレーニングフリーでデータフリーのバックドア攻撃である。
我々の注入されたバックドアは、様々な最先端の防御策によって、検出不可能で、検出不能であることを確認した。
複数のデータセットに対する評価では,1) 無視可能な分類損失,2) 攻撃成功率,3) 既存の6つの防御を回避している。
論文 参考訳(メタデータ) (2024-12-09T05:30:25Z) - DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Beating Backdoor Attack at Its Own Game [10.106197319676294]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
既存の防御方法は、攻撃の成功率を大幅に低下させた。
有害な試料を標的とした非敵のバックドアを注入する高効率な枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-28T13:07:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - CorruptEncoder: Data Poisoning based Backdoor Attacks to Contrastive
Learning [71.25518220297639]
コントラスト学習は、ラベル付き事前学習データセットを使用して汎用エンコーダを訓練する。
DPBAはトレーニング前のデータセットに有毒な入力を注入してエンコーダをバックドアにする。
CorruptEncoderは、有毒な入力を生成するための新しい攻撃戦略を導入し、攻撃効率を最大化するために理論誘導方式を使用している。
我々の防衛はDPBAの有効性を低下させるが,エンコーダの実用性を犠牲にし,新たな防衛の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-15T15:48:28Z) - Model-Contrastive Learning for Backdoor Defense [13.781375023320981]
モデル・コントラスト学習に基づく新しいバックドア・ディフェンス手法 MCL を提案する。
MCLは、良質なデータの高い精度を維持しながら、バックドアの脅威を減らすのに効果的である。
論文 参考訳(メタデータ) (2022-05-09T16:36:46Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。