論文の概要: Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy
- arxiv url: http://arxiv.org/abs/2302.07801v1
- Date: Wed, 15 Feb 2023 17:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 14:22:07.341290
- Title: Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy
- Title(参考訳): 拡散モデルにおけるデータ法医学:メンバーシッププライバシの体系的分析
- Authors: Derui Zhu, Dingfan Chen, Jens Grossklags, Mario Fritz
- Abstract要約: 本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
- 参考スコア(独自算出の注目度): 62.16582309504159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, diffusion models have achieved tremendous success in the
field of image generation, becoming the stateof-the-art technology for AI-based
image processing applications. Despite the numerous benefits brought by recent
advances in diffusion models, there are also concerns about their potential
misuse, specifically in terms of privacy breaches and intellectual property
infringement. In particular, some of their unique characteristics open up new
attack surfaces when considering the real-world deployment of such models. With
a thorough investigation of the attack vectors, we develop a systematic
analysis of membership inference attacks on diffusion models and propose novel
attack methods tailored to each attack scenario specifically relevant to
diffusion models. Our approach exploits easily obtainable quantities and is
highly effective, achieving near-perfect attack performance (>0.9 AUCROC) in
realistic scenarios. Our extensive experiments demonstrate the effectiveness of
our method, highlighting the importance of considering privacy and intellectual
property risks when using diffusion models in image generation tasks.
- Abstract(参考訳): 近年、拡散モデルは画像生成の分野で大きな成功を収め、AIベースの画像処理アプリケーションの最先端技術となった。
拡散モデルの最近の進歩によってもたらされた多くの利点にもかかわらず、その潜在的な誤用、特にプライバシー侵害と知的財産侵害に関する懸念もある。
特に、それらのユニークな特徴は、そのようなモデルの現実世界の展開を考えると、新しい攻撃面を開く。
攻撃ベクトルの徹底的な研究により,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,拡散モデルに特有な攻撃シナリオに合わせた新たな攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能(>0.9 AUCROC)を実現する。
提案手法の有効性を実証し,画像生成タスクにおける拡散モデルを用いた場合のプライバシと知的財産権リスクを検討することの重要性を強調した。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Invisible Backdoor Attacks on Diffusion Models [22.08671395877427]
近年の研究では、バックドア攻撃に対する拡散モデルの脆弱性が明らかにされている。
本稿では,目に見えないトリガーの獲得と,挿入されたバックドアのステルスネスとレジリエンスの向上を目的とした,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-02T17:43:19Z) - Revealing Vulnerabilities in Stable Diffusion via Targeted Attacks [41.531913152661296]
本稿では,安定拡散に対する標的対向攻撃の問題を定式化し,対向的プロンプトを生成するための枠組みを提案する。
具体的には、安定した拡散を誘導し、特定の画像を生成するための信頼性の高い逆プロンプトを構築するために、勾配に基づく埋め込み最適化を設計する。
逆方向のプロンプトを成功させた後、モデルの脆弱性を引き起こすメカニズムを明らかにする。
論文 参考訳(メタデータ) (2024-01-16T12:15:39Z) - Adversarial Examples are Misaligned in Diffusion Model Manifolds [7.979892202477701]
本研究は,拡散モデルのレンズによる敵攻撃の研究に焦点をあてる。
我々の焦点は、拡散モデルを利用して、画像に対するこれらの攻撃によって引き起こされる異常を検出し、分析することにある。
その結果、良性画像と攻撃画像とを効果的に識別できる顕著な能力が示された。
論文 参考訳(メタデータ) (2024-01-12T15:29:21Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Membership Inference of Diffusion Models [9.355840335132124]
本稿では,拡散モデルに対するメンバシップ推論攻撃に関する最初の研究を体系的に提示する。
損失ベースと可能性ベースという2つの攻撃手法が提案されている。
本手法は,プライバシに敏感なデータに対して,さまざまなデータセットに対して,最先端の拡散モデルを用いて評価する。
論文 参考訳(メタデータ) (2023-01-24T12:34:27Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Threat Model-Agnostic Adversarial Defense using Diffusion Models [14.603209216642034]
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
ディープニューラルネットワーク(DNN)は、敵攻撃として知られる、知覚できない悪意のある摂動に対して非常に敏感である。
論文 参考訳(メタデータ) (2022-07-17T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。