論文の概要: Invisible Clean-Label Backdoor Attacks for Generative Data Augmentation
- arxiv url: http://arxiv.org/abs/2602.03316v1
- Date: Tue, 03 Feb 2026 09:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.368264
- Title: Invisible Clean-Label Backdoor Attacks for Generative Data Augmentation
- Title(参考訳): 生成データ拡張のための可視的クリーンラベルバックドアアタック
- Authors: Ting Xiang, Jinhui Zhao, Changjian Chen, Zhuo Tang,
- Abstract要約: InvLBAは潜伏摂動による生成データ増強のための見えないクリーンラベルバックドア攻撃法である。
本手法は,SOTA防御法に対して,清潔な精度と強靭さの低下がほとんどなく,攻撃成功率を平均46.43%向上させることを示す。
- 参考スコア(独自算出の注目度): 16.661549659223994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of image generative models, generative data augmentation has become an effective way to enrich training images, especially when only small-scale datasets are available. At the same time, in practical applications, generative data augmentation can be vulnerable to clean-label backdoor attacks, which aim to bypass human inspection. However, based on theoretical analysis and preliminary experiments, we observe that directly applying existing pixel-level clean-label backdoor attack methods (e.g., COMBAT) to generated images results in low attack success rates. This motivates us to move beyond pixel-level triggers and focus instead on the latent feature level. To this end, we propose InvLBA, an invisible clean-label backdoor attack method for generative data augmentation by latent perturbation. We theoretically prove that the generalization of the clean accuracy and attack success rates of InvLBA can be guaranteed. Experiments on multiple datasets show that our method improves the attack success rate by 46.43% on average, with almost no reduction in clean accuracy and high robustness against SOTA defense methods.
- Abstract(参考訳): 画像生成モデルの急速な進歩により、特に小規模なデータセットしか利用できない場合、画像の訓練を充実させる効果的な方法として、生成データ拡張が実現されている。
同時に、実用的な応用においては、人体検査を回避しようとするクリーンラベルバックドア攻撃に対して、生成的データ拡張は脆弱である。
しかし,理論解析と予備実験に基づいて,既存の画素レベルのクリーンラベルバックドア攻撃法(例えば,COMBAT)を生成画像に適用することにより,攻撃成功率の低下が観察された。
これは、ピクセルレベルのトリガを超えて、潜在機能レベルに注力する動機になります。
そこで本研究では,潜伏摂動による生成データ増強のための,見えないクリーンラベルバックドア攻撃法であるInvLBAを提案する。
InvLBAのクリーン精度の一般化と攻撃成功率の保証が可能であることを理論的に証明する。
複数のデータセットを用いた実験により,SOTA防御法に対する精度の低下や強靭性がほとんどなく,攻撃成功率を平均46.43%向上させることが示された。
関連論文リスト
- Breaking the Stealth-Potency Trade-off in Clean-Image Backdoors with Generative Trigger Optimization [6.783000267839024]
クリーンイメージのバックドア攻撃は、セキュリティクリティカルなアプリケーションに重大な脅威をもたらす。
既存の方法の重大な欠点は、攻撃を成功させるのに必要な毒素率が、比例的かつ顕著な、クリーン精度(CA)の低下を引き起こすことである。
我々は、条件付きInfoGANを使用して、強力でステルス的なトリガーとして機能する自然発生画像の特徴を識別するフレームワークであるGenerative Clean-Image Backdoors (GCB)を紹介した。
論文 参考訳(メタデータ) (2025-11-10T15:37:44Z) - Sealing The Backdoor: Unlearning Adversarial Text Triggers In Diffusion Models Using Knowledge Distillation [3.54387829918311]
学習データに知覚不可能なテキストトリガーを注入することで、モデルが操作された出力を生成する。
本稿では, 対人的テキストトリガと有毒なアウトプットの関連を除去するために, クロスアテンション誘導による自己知識蒸留(SKD-CAG)を提案する。
本手法は,画素バックドアの除去精度を100%,スタイルベース攻撃の93%で達成し,ロバスト性や画像の忠実さを犠牲にしない。
論文 参考訳(メタデータ) (2025-08-20T00:57:21Z) - Fine-tuning is Not Fine: Mitigating Backdoor Attacks in GNNs with Limited Clean Data [51.745219224707384]
グラフニューラルネットワーク(GNN)は,メッセージパッシング機構を通じて,優れたパフォーマンスを実現している。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調している。
本稿では,実践的なバックドア緩和フレームワークである GraphNAD を提案する。
論文 参考訳(メタデータ) (2025-01-10T10:16:35Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - DataElixir: Purifying Poisoned Dataset to Mitigate Backdoor Attacks via
Diffusion Models [12.42597979026873]
汚染されたデータセットを浄化するための新しい衛生手法であるDataElixirを提案する。
我々は拡散モデルを利用してトリガーの特徴を排除し、良性の特徴を復元し、毒を盛ったサンプルを良性のものに変える。
9つの人気のある攻撃で実施された実験は、DataElixirが様々な複雑な攻撃を効果的に軽減し、良識の正確さに最小限の影響を与えることを示した。
論文 参考訳(メタデータ) (2023-12-18T09:40:38Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。