論文の概要: Breaking the Stealth-Potency Trade-off in Clean-Image Backdoors with Generative Trigger Optimization
- arxiv url: http://arxiv.org/abs/2511.07210v2
- Date: Wed, 12 Nov 2025 01:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 16:10:52.98189
- Title: Breaking the Stealth-Potency Trade-off in Clean-Image Backdoors with Generative Trigger Optimization
- Title(参考訳): 生成トリガー最適化によるクリーンイメージバックドアのステルス性トレードオフの破壊
- Authors: Binyan Xu, Fan Yang, Di Tang, Xilin Dai, Kehuan Zhang,
- Abstract要約: クリーンイメージのバックドア攻撃は、セキュリティクリティカルなアプリケーションに重大な脅威をもたらす。
既存の方法の重大な欠点は、攻撃を成功させるのに必要な毒素率が、比例的かつ顕著な、クリーン精度(CA)の低下を引き起こすことである。
我々は、条件付きInfoGANを使用して、強力でステルス的なトリガーとして機能する自然発生画像の特徴を識別するフレームワークであるGenerative Clean-Image Backdoors (GCB)を紹介した。
- 参考スコア(独自算出の注目度): 6.783000267839024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clean-image backdoor attacks, which use only label manipulation in training datasets to compromise deep neural networks, pose a significant threat to security-critical applications. A critical flaw in existing methods is that the poison rate required for a successful attack induces a proportional, and thus noticeable, drop in Clean Accuracy (CA), undermining their stealthiness. This paper presents a new paradigm for clean-image attacks that minimizes this accuracy degradation by optimizing the trigger itself. We introduce Generative Clean-Image Backdoors (GCB), a framework that uses a conditional InfoGAN to identify naturally occurring image features that can serve as potent and stealthy triggers. By ensuring these triggers are easily separable from benign task-related features, GCB enables a victim model to learn the backdoor from an extremely small set of poisoned examples, resulting in a CA drop of less than 1%. Our experiments demonstrate GCB's remarkable versatility, successfully adapting to six datasets, five architectures, and four tasks, including the first demonstration of clean-image backdoors in regression and segmentation. GCB also exhibits resilience against most of the existing backdoor defenses.
- Abstract(参考訳): トレーニングデータセットのラベル操作のみを使用して、ディープニューラルネットワークを妥協するクリーンイメージバックドア攻撃は、セキュリティクリティカルなアプリケーションに重大な脅威をもたらす。
既存の方法の重大な欠点は、攻撃を成功させるのに必要な毒素の量は比例的であり、それ故にクリーンな正確さ(CA)を低下させ、彼らのステルス性を損なうことである。
本稿では、トリガ自体を最適化することで、この精度の劣化を最小限に抑える、クリーンイメージ攻撃のための新しいパラダイムを提案する。
我々は、条件付きInfoGANを使用して、強力でステルス的なトリガーとして機能する自然発生画像の特徴を識別するフレームワークであるGenerative Clean-Image Backdoors (GCB)を紹介した。
これらのトリガーが良質なタスク関連の特徴と容易に分離できることを保証することで、GCBは極めて小さな毒の入った例から被害者モデルがバックドアを学習できるようにする。
実験ではGCBの優れた汎用性を実証し,6つのデータセット,5つのアーキテクチャ,4つのタスクに順応し,レグレッションとセグメンテーションにおけるクリーンイメージのバックドアの最初のデモを行った。
GCBは既存のバックドア防御のほとんどに対して弾力性を示す。
関連論文リスト
- InverTune: Removing Backdoors from Multimodal Contrastive Learning Models via Trigger Inversion and Activation Tuning [36.56302680556252]
InverTuneは、最小限の攻撃仮定の下で、マルチモーダルモデルのための最初のバックドアディフェンスフレームワークである。
InverTuneは、3つの主要なコンポーネントを通じてバックドアアーティファクトを効果的に識別し、削除し、バックドアアタックに対する堅牢な保護を実現する。
実験の結果、InverTuneは最先端(SOTA)攻撃に対して平均攻撃成功率(ASR)を97.87%削減した。
論文 参考訳(メタデータ) (2025-06-14T09:08:34Z) - Neural Antidote: Class-Wise Prompt Tuning for Purifying Backdoors in CLIP [51.04452017089568]
CBPT(Class-wise Backdoor Prompt Tuning)は、テキストプロンプトでCLIPを間接的に浄化する効率的な防御機構である。
CBPTは、モデルユーティリティを保持しながら、バックドアの脅威を著しく軽減する。
論文 参考訳(メタデータ) (2025-02-26T16:25:15Z) - Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning [4.623498459985644]
ULRL(UnLearn and ReLearn for backdoor removal)を提案する。
提案手法はまず,ネットワークの損失を小さなクリーンデータセット上で意図的に最大化する未学習フェーズを用いる。
再学習段階では、これらの疑わしいニューロンは、標的の再初期化とコサイン類似性規則化を用いて再分類される。
論文 参考訳(メタデータ) (2024-05-23T16:49:09Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Invisible Backdoor Attack Through Singular Value Decomposition [2.681558084723648]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
本稿では,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:25:12Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Few-shot Backdoor Defense Using Shapley Estimation [123.56934991060788]
我々は、深層ニューラルネットワークに対するバックドア攻撃を軽減するために、Shapley Pruningと呼ばれる新しいアプローチを開発した。
ShapPruningは、感染した数少ないニューロン(全ニューロンの1%以下)を特定し、モデルの構造と正確性を保護する。
様々な攻撃やタスクに対して,本手法の有効性とロバスト性を示す実験を行った。
論文 参考訳(メタデータ) (2021-12-30T02:27:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。