論文の概要: Understanding and Improving Adversarial Attacks on Latent Diffusion
Model
- arxiv url: http://arxiv.org/abs/2310.04687v1
- Date: Sat, 7 Oct 2023 05:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 16:37:40.710719
- Title: Understanding and Improving Adversarial Attacks on Latent Diffusion
Model
- Title(参考訳): 潜伏拡散モデルによる敵攻撃の理解と改善
- Authors: Boyang Zheng, Chumeng Liang, Xiaoyu Wu, Yan Liu
- Abstract要約: 我々は、潜在拡散モデル(LDM)に対する敵対的攻撃を理解するための包括的な理論的枠組みを導入する。
本稿では,LDMの前方および後方プロセスの両方において,敵攻撃を誘導する統一目標を用いた新たな敵攻撃を提案する。
以上の結果から,本手法は現在の攻撃よりも優れており,最先端の複数ショット生成パイプライン上での一般化が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 8.268827963476317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent Diffusion Model (LDM) has emerged as a leading tool in image
generation, particularly with its capability in few-shot generation. This
capability also presents risks, notably in unauthorized artwork replication and
misinformation generation. In response, adversarial attacks have been designed
to safeguard personal images from being used as reference data. However,
existing adversarial attacks are predominantly empirical, lacking a solid
theoretical foundation. In this paper, we introduce a comprehensive theoretical
framework for understanding adversarial attacks on LDM. Based on the framework,
we propose a novel adversarial attack that exploits a unified target to guide
the adversarial attack both in the forward and the reverse process of LDM. We
provide empirical evidences that our method overcomes the offset problem of the
optimization of adversarial attacks in existing methods. Through rigorous
experiments, our findings demonstrate that our method outperforms current
attacks and is able to generalize over different state-of-the-art few-shot
generation pipelines based on LDM. Our method can serve as a stronger and
efficient tool for people exposed to the risk of data privacy and security to
protect themselves in the new era of powerful generative models. The code is
available on GitHub: https://github.com/CaradryanLiang/ImprovedAdvDM.git.
- Abstract(参考訳): Latent Diffusion Model (LDM) は画像生成の先駆的なツールとして登場し、特に数ショット生成の能力がある。
この能力は、特に未承認のアートワークの複製と誤情報生成のリスクも提示する。
これに対し、個人画像が参照データとして使用されるのを防ぐために敵攻撃が設計された。
しかし、既存の敵対的攻撃は主に経験的であり、確かな理論的基礎を欠いている。
本稿では, LDMに対する敵対的攻撃を理解するための包括的理論的枠組みを提案する。
本フレームワークをベースとして,LDMの前方と後方の両方で敵攻撃を誘導するために,統一目標を利用した新たな敵攻撃を提案する。
提案手法は,既存手法における敵攻撃の最適化のオフセット問題を克服する実証的証拠を提供する。
厳密な実験により,本手法は現在の攻撃よりも優れており,LDMに基づく様々な最新数ショット生成パイプラインを一般化可能であることが示された。
我々の手法は、データプライバシとセキュリティのリスクに晒され、強力な生成モデルの新時代に身を守るための、より強力で効率的なツールとして機能する。
コードはGitHubで入手できる。 https://github.com/CaradryanLiang/ImprovedAdvDM.git。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Pixel is a Barrier: Diffusion Models Are More Adversarially Robust Than We Think [14.583181596370386]
拡散モデルの逆例は、安全上の問題に対する解決策として広く使われている。
このことは、拡散モデルがほとんどの深層モデルのような敵攻撃に対して脆弱であると考えることを誤解させるかもしれない。
本稿では, 勾配をベースとしたホワイトボックス攻撃がLDM攻撃に有効であっても, PDM攻撃に失敗する,という新たな知見を示す。
論文 参考訳(メタデータ) (2024-04-20T08:28:43Z) - Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。