論文の概要: PriSampler: Mitigating Property Inference of Diffusion Models
- arxiv url: http://arxiv.org/abs/2306.05208v2
- Date: Mon, 29 Apr 2024 08:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 01:24:19.045468
- Title: PriSampler: Mitigating Property Inference of Diffusion Models
- Title(参考訳): PriSampler:拡散モデルの特性推定の軽減
- Authors: Hailong Hu, Jun Pang,
- Abstract要約: この研究は、拡散モデルに対する資産推測攻撃に関する最初のプライバシー研究を体系的に提示する。
拡散モデルの特性推定のリスクを推測するモデルに依存しない新しいプラグイン手法PriSamplerを提案する。
- 参考スコア(独自算出の注目度): 6.5990719141691825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have been remarkably successful in data synthesis. However, when these models are applied to sensitive datasets, such as banking and human face data, they might bring up severe privacy concerns. This work systematically presents the first privacy study about property inference attacks against diffusion models, where adversaries aim to extract sensitive global properties of its training set from a diffusion model. Specifically, we focus on the most practical attack scenario: adversaries are restricted to accessing only synthetic data. Under this realistic scenario, we conduct a comprehensive evaluation of property inference attacks on various diffusion models trained on diverse data types, including tabular and image datasets. A broad range of evaluations reveals that diffusion models and their samplers are universally vulnerable to property inference attacks. In response, we propose a new model-agnostic plug-in method PriSampler to mitigate the risks of the property inference of diffusion models. PriSampler can be directly applied to well-trained diffusion models and support both stochastic and deterministic sampling. Extensive experiments illustrate the effectiveness of our defense, and it can lead adversaries to infer the proportion of properties as close as predefined values that model owners wish. Notably, PriSampler also shows its significantly superior performance to diffusion models trained with differential privacy on both model utility and defense performance. This work will elevate the awareness of preventing property inference attacks and encourage privacy-preserving synthetic data release.
- Abstract(参考訳): 拡散モデルはデータ合成において著しく成功している。
しかし、これらのモデルが銀行や人間の顔データといったセンシティブなデータセットに適用されると、深刻なプライバシー上の懸念が生じる可能性がある。
本研究は,拡散モデルに対する資産推測攻撃に関する最初のプライバシ研究を体系的に提示し,拡散モデルからトレーニングセットのセンシティブなグローバルな特性を抽出することを目的とした。
具体的には、最も実用的な攻撃シナリオに注目し、敵は合成データのみにアクセスすることに制限される。
この現実的なシナリオでは、表や画像のデータセットを含む多様なデータ型に基づいて訓練された様々な拡散モデルに対して、プロパティ推論攻撃を包括的に評価する。
広範囲な評価により、拡散モデルとそのサンプルは、特性推論攻撃に対して普遍的に脆弱であることが明らかとなった。
そこで本研究では,拡散モデルの特性推定のリスクを軽減するために,新しいモデルに依存しないプラグイン手法PriSamplerを提案する。
PriSamplerは、よく訓練された拡散モデルに直接適用することができ、確率的および決定論的サンプリングの両方をサポートする。
大規模な実験は、我々の防衛の有効性を示しており、モデル所有者が望む定義済みの値に近い性質の比率を、敵に推測させる可能性がある。
特にPriSamplerは、モデルユーティリティとディフェンスパフォーマンスの両方で差分プライバシでトレーニングされた拡散モデルよりも、はるかに優れたパフォーマンスを示している。
この作業は、プロパティ推論攻撃の防止に対する認識を高め、プライバシ保護のための合成データリリースを促進する。
関連論文リスト
- Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Efficient Differentially Private Fine-Tuning of Diffusion Models [15.71777343534365]
DP-SGDによる微調整された大規模な拡散モデルは、メモリ使用量や計算量の観点から非常にリソース需要が高い。
本研究では,低次元適応(LoDA)と微分プライバシーを用いた拡散モデルの高効率微調整(PEFT)について検討する。
ソースコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2024-06-07T21:00:20Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective [31.010937126289953]
我々は,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的な視点で検討する。
提案手法は,受信機の下流モデルに悪影響を及ぼすために,フェアネス中毒攻撃を実施できることを実証する。
実世界のデータセットで行った実験は、異なる種類の拡散モデルに対して顕著な攻撃性能を示す。
論文 参考訳(メタデータ) (2024-02-28T12:21:12Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z) - Are Diffusion Models Vulnerable to Membership Inference Attacks? [26.35177414594631]
拡散に基づく生成モデルは、画像合成に大きな可能性を示しているが、それらが引き起こすセキュリティとプライバシのリスクに関する研究が不足している。
共通プライバシー問題であるMIAに対する拡散モデルの脆弱性について検討する。
ステップワイズ・エラー比較メンバーシップ推論(SecMI)は,各時刻における前処理後推定のマッチングを評価することで,メンバーシップを推測するクエリベースのMIAである。
論文 参考訳(メタデータ) (2023-02-02T18:43:16Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Membership Inference of Diffusion Models [9.355840335132124]
本稿では,拡散モデルに対するメンバシップ推論攻撃に関する最初の研究を体系的に提示する。
損失ベースと可能性ベースという2つの攻撃手法が提案されている。
本手法は,プライバシに敏感なデータに対して,さまざまなデータセットに対して,最先端の拡散モデルを用いて評価する。
論文 参考訳(メタデータ) (2023-01-24T12:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。