論文の概要: Adversarial Attacks and Defenses on Text-to-Image Diffusion Models: A Survey
- arxiv url: http://arxiv.org/abs/2407.15861v2
- Date: Fri, 13 Sep 2024 04:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 22:38:13.030043
- Title: Adversarial Attacks and Defenses on Text-to-Image Diffusion Models: A Survey
- Title(参考訳): テキスト・画像拡散モデルにおける敵対的攻撃と防御
- Authors: Chenyu Zhang, Mingwang Hu, Wenhui Li, Lanjun Wang,
- Abstract要約: テキストから画像への拡散モデルであるStable Diffusionは、リリースからわずか2ヶ月で1000万人以上のユーザーを集めた。
本稿では,テキスト・ツー・イメージ拡散モデルを対象とした敵攻撃と防御に関する文献のレビューを行う。
次に、モデルロバスト性および安全性を向上させるため、現行の防御手法の詳細な分析を行う。
- 参考スコア(独自算出の注目度): 14.430120388340457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the text-to-image diffusion model has gained considerable attention from the community due to its exceptional image generation capability. A representative model, Stable Diffusion, amassed more than 10 million users within just two months of its release. This surge in popularity has facilitated studies on the robustness and safety of the model, leading to the proposal of various adversarial attack methods. Simultaneously, there has been a marked increase in research focused on defense methods to improve the robustness and safety of these models. In this survey, we provide a comprehensive review of the literature on adversarial attacks and defenses targeting text-to-image diffusion models. We begin with an overview of text-to-image diffusion models, followed by an introduction to a taxonomy of adversarial attacks and an in-depth review of existing attack methods. We then present a detailed analysis of current defense methods that improve model robustness and safety. Finally, we discuss ongoing challenges and explore promising future research directions. For a complete list of the adversarial attack and defense methods covered in this survey, please refer to our curated repository at https://github.com/datar001/Awesome-AD-on-T2IDM.
- Abstract(参考訳): 近年,画像生成能力の異常により,テキスト・画像拡散モデルがコミュニティから注目を集めている。
代表モデルであるStable Diffusionは、リリースからわずか2ヶ月で1000万人以上のユーザーを集めた。
この人気が高まり、モデルの堅牢性と安全性の研究が促進され、様々な敵攻撃法が提案された。
同時に、これらのモデルの堅牢性と安全性を改善するための防衛手法に焦点を当てた研究が顕著に増加した。
本稿では,テキスト・ツー・イメージ拡散モデルを対象とした敵攻撃と防御に関する文献を包括的にレビューする。
まず、テキスト・ツー・イメージ拡散モデルの概要と、敵攻撃の分類の導入、および既存の攻撃方法の詳細なレビューから始める。
次に、モデルロバスト性および安全性を向上させるため、現行の防御手法の詳細な分析を行う。
最後に、現在進行中の課題について議論し、将来的な研究の方向性を探求する。
このサーベイでカバーされた敵攻撃と防御方法の完全なリストについては、https://github.com/datar001/Awesome-AD-on-T2IDM.comのキュレートされたリポジトリを参照してください。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Defending Text-to-image Diffusion Models: Surprising Efficacy of Textual Perturbations Against Backdoor Attacks [7.777211995715721]
テキスト間拡散モデルに対する最先端のバックドア攻撃は、驚くほど単純な防御戦略であるテキスト摂動によって効果的に軽減できることを示す。
実験により、テキストによる摂動は、最先端のバックドア攻撃に対する防御に有効であり、生成品質に対する犠牲は最小限であることが示された。
論文 参考訳(メタデータ) (2024-08-28T11:36:43Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - ADDMU: Detection of Far-Boundary Adversarial Examples with Data and
Model Uncertainty Estimation [125.52743832477404]
AED(Adversarial Examples Detection)は、敵攻撃に対する重要な防御技術である。
本手法は, 正逆検出とFB逆検出の2種類の不確実性推定を組み合わせた新しい手法である textbfADDMU を提案する。
提案手法は,各シナリオにおいて,従来の手法よりも3.6と6.0のEmphAUC点が優れていた。
論文 参考訳(メタデータ) (2022-10-22T09:11:12Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。