論文の概要: Are Diffusion Models Vulnerable to Membership Inference Attacks?
- arxiv url: http://arxiv.org/abs/2302.01316v2
- Date: Tue, 30 May 2023 02:42:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 01:38:36.231777
- Title: Are Diffusion Models Vulnerable to Membership Inference Attacks?
- Title(参考訳): 拡散モデルはメンバーシップ推論攻撃に脆弱か?
- Authors: Jinhao Duan, Fei Kong, Shiqi Wang, Xiaoshuang Shi, Kaidi Xu
- Abstract要約: 拡散に基づく生成モデルは、画像合成に大きな可能性を示しているが、それらが引き起こすセキュリティとプライバシのリスクに関する研究が不足している。
共通プライバシー問題であるMIAに対する拡散モデルの脆弱性について検討する。
ステップワイズ・エラー比較メンバーシップ推論(SecMI)は,各時刻における前処理後推定のマッチングを評価することで,メンバーシップを推測するクエリベースのMIAである。
- 参考スコア(独自算出の注目度): 26.35177414594631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion-based generative models have shown great potential for image
synthesis, but there is a lack of research on the security and privacy risks
they may pose. In this paper, we investigate the vulnerability of diffusion
models to Membership Inference Attacks (MIAs), a common privacy concern. Our
results indicate that existing MIAs designed for GANs or VAE are largely
ineffective on diffusion models, either due to inapplicable scenarios (e.g.,
requiring the discriminator of GANs) or inappropriate assumptions (e.g., closer
distances between synthetic samples and member samples). To address this gap,
we propose Step-wise Error Comparing Membership Inference (SecMI), a
query-based MIA that infers memberships by assessing the matching of forward
process posterior estimation at each timestep. SecMI follows the common
overfitting assumption in MIA where member samples normally have smaller
estimation errors, compared with hold-out samples. We consider both the
standard diffusion models, e.g., DDPM, and the text-to-image diffusion models,
e.g., Latent Diffusion Models and Stable Diffusion. Experimental results
demonstrate that our methods precisely infer the membership with high
confidence on both of the two scenarios across multiple different datasets.
Code is available at https://github.com/jinhaoduan/SecMI.
- Abstract(参考訳): 拡散に基づく生成モデルは画像合成に大きな可能性を示しているが、それらが引き起こすセキュリティやプライバシのリスクについての研究は乏しい。
本稿では,共通するプライバシー問題であるメンバーシップ推論攻撃(mias)に対する拡散モデルの脆弱性について検討する。
以上の結果から,gansやvae用に設計された既存のmiasは,適用不能なシナリオ(gansの判別器が必要)や不適切な仮定(例えば,合成試料とメンバーサンプルとの親密な距離)によって拡散モデルにほとんど効果がないことが示された。
このギャップに対処するために,各時点における前処理後推定のマッチングを評価し,メンバシップを推測するクエリベースのMIAであるSecMI(Step-wise Error Comparisoning Membership Inference)を提案する。
SecMIは、通常、メンバーサンプルがホールドアウトサンプルよりも小さい推定誤差を持つMIAの一般的なオーバーフィッティング仮定に従う。
DDPMなどの標準拡散モデルと、遅延拡散モデルや安定拡散モデルといったテキスト・画像拡散モデルの両方を考慮する。
実験の結果,複数の異なるデータセットにまたがる2つのシナリオについて,メンバシップを高い信頼度で正確に推定できることが判明した。
コードはhttps://github.com/jinhaoduan/SecMI.comで入手できる。
関連論文リスト
- Masked Diffusion Models are Secretly Time-Agnostic Masked Models and Exploit Inaccurate Categorical Sampling [47.82616476928464]
仮面拡散モデル (MDM) は離散データの生成モデルとして人気がある。
我々はMDMのトレーニングとサンプリングの両方が理論的に時間変数から解放されていることを示す。
一般に使用されている32ビット浮動小数点精度においても,まず基礎となる数値問題を同定した。
論文 参考訳(メタデータ) (2024-09-04T17:48:19Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Your Absorbing Discrete Diffusion Secretly Models the Conditional Distributions of Clean Data [55.54827581105283]
本研究では, 吸収拡散の具体的なスコアを, クリーンデータの条件付き確率として表すことができることを示す。
時間に依存しない条件付き確率を特徴付ける時間条件のない専用拡散モデルを提案する。
5つのゼロショット言語モデルベンチマークにおける拡散モデル間のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T04:22:11Z) - Intention-aware Denoising Diffusion Model for Trajectory Prediction [14.524496560759555]
軌道予測は、特に衝突回避システムにおいて、自律運転において不可欠な要素である。
本稿では,拡散モデルを用いて将来の軌道の分布を生成することを提案する。
Intention-aware denoising Diffusion Model (IDM)を提案する。
提案手法は,SDDデータセットでは13.83ピクセル,ETH/UCYデータセットでは0.36メートルのFDEで,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-03-14T09:05:25Z) - Semi-Implicit Denoising Diffusion Models (SIDDMs) [50.30163684539586]
Denoising Diffusion Probabilistic Models (DDPM)のような既存のモデルは、高品質で多様なサンプルを提供するが、本質的に多くの反復的なステップによって遅くなる。
暗黙的要因と明示的要因を一致させることにより、この問題に対処する新しいアプローチを導入する。
提案手法は拡散モデルに匹敵する生成性能と,少数のサンプリングステップを持つモデルに比較して非常に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-21T18:49:22Z) - PriSampler: Mitigating Property Inference of Diffusion Models [6.5990719141691825]
この研究は、拡散モデルに対する資産推測攻撃に関する最初のプライバシー研究を体系的に提示する。
拡散モデルの特性推定のリスクを推測するモデルに依存しない新しいプラグイン手法PriSamplerを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:05:06Z) - An Efficient Membership Inference Attack for the Diffusion Model by
Proximal Initialization [58.88327181933151]
本稿では,効率的なクエリベースのメンバシップ推論攻撃(MIA)を提案する。
実験結果から,提案手法は離散時間と連続時間の両方の拡散モデル上で,2つのクエリで競合性能を達成できることが示唆された。
我々の知る限り、本研究はテキスト音声タスクにおけるMIAへの拡散モデルのロバスト性について初めて研究するものである。
論文 参考訳(メタデータ) (2023-05-26T16:38:48Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。