論文の概要: Invisible Backdoor Attacks on Diffusion Models
- arxiv url: http://arxiv.org/abs/2406.00816v1
- Date: Sun, 2 Jun 2024 17:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:16:50.554992
- Title: Invisible Backdoor Attacks on Diffusion Models
- Title(参考訳): 拡散モデルによる見えないバックドア攻撃
- Authors: Sen Li, Junchi Ma, Minhao Cheng,
- Abstract要約: 近年の研究では、バックドア攻撃に対する拡散モデルの脆弱性が明らかにされている。
本稿では,目に見えないトリガーの獲得と,挿入されたバックドアのステルスネスとレジリエンスの向上を目的とした,革新的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.08671395877427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, diffusion models have achieved remarkable success in the realm of high-quality image generation, garnering increased attention. This surge in interest is paralleled by a growing concern over the security threats associated with diffusion models, largely attributed to their susceptibility to malicious exploitation. Notably, recent research has brought to light the vulnerability of diffusion models to backdoor attacks, enabling the generation of specific target images through corresponding triggers. However, prevailing backdoor attack methods rely on manually crafted trigger generation functions, often manifesting as discernible patterns incorporated into input noise, thus rendering them susceptible to human detection. In this paper, we present an innovative and versatile optimization framework designed to acquire invisible triggers, enhancing the stealthiness and resilience of inserted backdoors. Our proposed framework is applicable to both unconditional and conditional diffusion models, and notably, we are the pioneers in demonstrating the backdooring of diffusion models within the context of text-guided image editing and inpainting pipelines. Moreover, we also show that the backdoors in the conditional generation can be directly applied to model watermarking for model ownership verification, which further boosts the significance of the proposed framework. Extensive experiments on various commonly used samplers and datasets verify the efficacy and stealthiness of the proposed framework. Our code is publicly available at https://github.com/invisibleTriggerDiffusion/invisible_triggers_for_diffusion.
- Abstract(参考訳): 近年,高画質画像生成の領域において拡散モデルが顕著に成功し,注目度が高まっている。
この関心の高まりは、拡散モデルに関連するセキュリティの脅威に対する懸念の高まりと平行しており、主に悪意ある搾取への感受性に起因する。
特に最近の研究では、バックドア攻撃に対する拡散モデルの脆弱性が明らかになり、対応するトリガを通じて特定のターゲット画像の生成が可能になった。
しかし、一般的なバックドア攻撃法は手作業によるトリガー生成機能に依存しており、しばしば入力ノイズに組み込まれた識別可能なパターンとして現れる。
本稿では,目に見えないトリガの獲得と,挿入されたバックドアのステルスネスとレジリエンスの向上を目的とした,革新的で汎用的な最適化フレームワークを提案する。
提案フレームワークは,非条件拡散モデルと条件拡散モデルの両方に適用可能であり,特に,テキスト誘導画像編集やインペイントパイプラインの文脈における拡散モデルのバックドア化を実証するパイオニアである。
さらに,モデルオーナシップ検証のためのモデル透かしに条件生成のバックドアを直接適用できることを示し,提案フレームワークの重要性をさらに高めている。
様々な一般的なサンプルとデータセットに関する大規模な実験は、提案フレームワークの有効性とステルス性を検証する。
私たちのコードはhttps://github.com/invisibleTriggerDiffusion/invisible_triggers_for_diffusionで公開されています。
関連論文リスト
- Injecting Bias in Text-To-Image Models via Composite-Trigger Backdoors [16.495996266157274]
大規模テキスト条件画像生成モデルは、テキストプロンプトから高品質でリアルな画像を生成することができる。
本稿では、少数の悪意のあるデータサンプルでそのようなモデルをバックドアする敵によるバイアス注入の脅威の可能性を示す。
本稿では,このような攻撃に対して複合(複数単語)トリガーを用いた毒素試料の効率的な生成を可能にする新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-06-21T14:53:19Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Perturbing Attention Gives You More Bang for the Buck: Subtle Imaging Perturbations That Efficiently Fool Customized Diffusion Models [11.91784429717735]
疑似潜伏拡散モデル(LDM)に対する汎用的で効率的なアプローチであるCAATを提案する。
画像上の微妙な勾配が相互注意層に大きく影響し,テキストと画像のマッピングが変化することを示す。
実験により、CAATは多様な拡散モデルと互換性があり、ベースライン攻撃法より優れていることが示された。
論文 参考訳(メタデータ) (2024-04-23T14:31:15Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Leveraging Diffusion-Based Image Variations for Robust Training on
Poisoned Data [26.551317580666353]
バックドア攻撃は、ニューラルネットワークをトレーニングする上で深刻なセキュリティ上の脅威となる。
本稿では,近年の拡散モデルのパワーを生かして,潜在的に有毒なデータセットのモデルトレーニングを可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T07:25:06Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。