論文の概要: Data-Chain Backdoor: Do You Trust Diffusion Models as Generative Data Supplier?
- arxiv url: http://arxiv.org/abs/2512.15769v1
- Date: Fri, 12 Dec 2025 18:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.684642
- Title: Data-Chain Backdoor: Do You Trust Diffusion Models as Generative Data Supplier?
- Title(参考訳): データチェーンバックドア: 拡散モデルを生成データサプライヤとして信頼しているか?
- Authors: Junchi Lu, Xinke Li, Yuheng Liu, Qi Alfred Chen,
- Abstract要約: オープンソースの拡散モデルはバックドアの隠れキャリアになる。
早期トリガー(Early-Stage Trigger): 拡散モデルの逆生成過程の初期、高雑音の段階で、バックドアトリガーパターンがより明示的に現れる傾向にある。
- 参考スコア(独自算出の注目度): 20.273388128508287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing use of generative models such as diffusion models for synthetic data augmentation has greatly reduced the cost of data collection and labeling in downstream perception tasks. However, this new data source paradigm may introduce important security concerns. This work investigates backdoor propagation in such emerging generative data supply chains, namely Data-Chain Backdoor (DCB). Specifically, we find that open-source diffusion models can become hidden carriers of backdoors. Their strong distribution-fitting ability causes them to memorize and reproduce backdoor triggers during generation, which are subsequently inherited by downstream models, resulting in severe security risks. This threat is particularly concerning under clean-label attack scenarios, as it remains effective while having negligible impact on the utility of the synthetic data. Furthermore, we discover an Early-Stage Trigger Manifestation (ESTM) phenomenon: backdoor trigger patterns tend to surface more explicitly in the early, high-noise stages of the diffusion model's reverse generation process before being subtly integrated into the final samples. Overall, this work reveals a previously underexplored threat in generative data pipelines and provides initial insights toward mitigating backdoor risks in synthetic data generation.
- Abstract(参考訳): 合成データ拡張のための拡散モデルのような生成モデルの利用の増加は、下流知覚タスクにおけるデータ収集とラベル付けのコストを大幅に削減した。
しかし、この新しいデータソースパラダイムは重要なセキュリティ上の懸念をもたらす可能性がある。
本研究では,新たなデータサプライチェーンであるData-Chain Backdoor (DCB) のバックドア伝播について検討する。
具体的には,オープンソース拡散モデルがバックドアの隠れキャリアになる可能性がある。
その強い分布適合能力は、世代間のバックドアトリガーを記憶し再生させ、その後下流モデルによって継承され、深刻なセキュリティリスクをもたらす。
この脅威は、クリーンラベル攻撃のシナリオにおいて特に関係しており、合成データの実用性に無視できない影響を与えながら有効である。
さらに, 後方トリガーパターンは, 拡散モデルの逆生成過程の初期, 高ノイズの段階で, より明瞭に表面を呈し, 最終試料に微積分される傾向にある。
全体として、この研究は、生成データパイプラインの未調査の脅威を明らかにし、合成データ生成におけるバックドアリスクを緩和するための最初の洞察を提供する。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Invisible Backdoor Attacks on Diffusion Models [22.08671395877427]
近年の研究では、バックドア攻撃に対する拡散モデルの脆弱性が明らかにされている。
本稿では,目に見えないトリガーの獲得と,挿入されたバックドアのステルスネスとレジリエンスの向上を目的とした,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-02T17:43:19Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Leveraging Diffusion-Based Image Variations for Robust Training on
Poisoned Data [26.551317580666353]
バックドア攻撃は、ニューラルネットワークをトレーニングする上で深刻なセキュリティ上の脅威となる。
本稿では,近年の拡散モデルのパワーを生かして,潜在的に有毒なデータセットのモデルトレーニングを可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T07:25:06Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - How to Backdoor Diffusion Models? [74.43215520371506]
本稿では,バックドア攻撃に対する拡散モデルの堅牢性に関する最初の研究について述べる。
我々は,バックドアインプラントのモデルトレーニング中に拡散過程を侵害する新たな攻撃フレームワークであるBadDiffusionを提案する。
本研究の結果は,拡散モデルの誤用や潜在的なリスクへの注意を呼び起こす。
論文 参考訳(メタデータ) (2022-12-11T03:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。