論文の概要: PriSampler: Mitigating Property Inference of Diffusion Models
- arxiv url: http://arxiv.org/abs/2306.05208v1
- Date: Thu, 8 Jun 2023 14:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 14:06:11.661783
- Title: PriSampler: Mitigating Property Inference of Diffusion Models
- Title(参考訳): PriSampler:拡散モデルの特性推定の軽減
- Authors: Hailong Hu, Jun Pang
- Abstract要約: この研究は、拡散モデルに対する資産推測攻撃に関する最初のプライバシー研究を体系的に提示する。
幅広い評価により、様々な拡散モデルとそのサンプルは、全て特性推論攻撃に弱いことが示されている。
拡散モデルの特性推定を緩和するために,新しいモデルに依存しないプラグイン手法PriSamplerを提案する。
- 参考スコア(独自算出の注目度): 9.355840335132124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have been remarkably successful in data synthesis. Such
successes have also driven diffusion models to apply to sensitive data, such as
human face data, but this might bring about severe privacy concerns. In this
work, we systematically present the first privacy study about property
inference attacks against diffusion models, in which adversaries aim to extract
sensitive global properties of the training set from a diffusion model, such as
the proportion of the training data for certain sensitive properties.
Specifically, we consider the most practical attack scenario: adversaries are
only allowed to obtain synthetic data. Under this realistic scenario, we
evaluate the property inference attacks on different types of samplers and
diffusion models. A broad range of evaluations shows that various diffusion
models and their samplers are all vulnerable to property inference attacks.
Furthermore, one case study on off-the-shelf pre-trained diffusion models also
demonstrates the effectiveness of the attack in practice. Finally, we propose a
new model-agnostic plug-in method PriSampler to mitigate the property inference
of diffusion models. PriSampler can be directly applied to well-trained
diffusion models and support both stochastic and deterministic sampling.
Extensive experiments illustrate the effectiveness of our defense and it makes
adversaries infer the proportion of properties as close as random guesses.
PriSampler also shows its significantly superior performance to diffusion
models trained with differential privacy on both model utility and defense
performance.
- Abstract(参考訳): 拡散モデルはデータ合成において著しく成功している。
このような成功は、人間の顔データのような繊細なデータに適用するための拡散モデルも引き起こしているが、これは深刻なプライバシー上の懸念を引き起こす可能性がある。
本研究では,拡散モデルに対する資産推測攻撃に関する最初のプライバシ研究を体系的に提示し,特定の感度特性に対するトレーニングデータの比率など,拡散モデルからトレーニングセットのセンシティブなグローバルな特性を抽出することを目的とした。
具体的には、最も実用的な攻撃シナリオを検討し、敵は合成データのみを得ることができる。
この現実的なシナリオでは、異なる種類のサンプルおよび拡散モデルに対する特性推定攻撃を評価する。
幅広い評価により、様々な拡散モデルとそのサンプルは、全て特性推論攻撃に弱いことが示されている。
さらに, 既設の事前学習拡散モデルを用いた実験により, 攻撃効果が実証された。
最後に,拡散モデルの特性推論を緩和する新しいモデル非依存プラグインメソッドprisamplerを提案する。
プリサンプラーはよく訓練された拡散モデルに直接適用でき、確率的および決定論的サンプリングの両方をサポートする。
広範な実験により、我々の防御の有効性が示され、敵はランダムな推測と同じくらい近い特性の比率を推測する。
PriSamplerはまた、モデルユーティリティとディフェンスパフォーマンスの両方で差分プライバシでトレーニングされた拡散モデルよりもはるかに優れたパフォーマンスを示している。
関連論文リスト
- Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Efficient Differentially Private Fine-Tuning of Diffusion Models [15.71777343534365]
DP-SGDによる微調整された大規模な拡散モデルは、メモリ使用量や計算量の観点から非常にリソース需要が高い。
本研究では,低次元適応(LoDA)と微分プライバシーを用いた拡散モデルの高効率微調整(PEFT)について検討する。
ソースコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2024-06-07T21:00:20Z) - Consistent Diffusion Meets Tweedie: Training Exact Ambient Diffusion Models with Noisy Data [74.2507346810066]
アンビエント拡散(アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散、アンビエント拡散
本稿では,ノイズの多い学習データのみを考慮し,故障のない分布から確実にサンプルを採取する拡散モデルのトレーニングのための最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T14:22:12Z) - Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective [31.010937126289953]
我々は,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的な視点で検討する。
提案手法は,受信機の下流モデルに悪影響を及ぼすために,フェアネス中毒攻撃を実施できることを実証する。
実世界のデータセットで行った実験は、異なる種類の拡散モデルに対して顕著な攻撃性能を示す。
論文 参考訳(メタデータ) (2024-02-28T12:21:12Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Membership Inference Attacks against Diffusion Models [0.0]
拡散モデルは近年、革新的な生成モデルとして注目されている。
本研究では,拡散モデルがメンバシップ推論攻撃に耐性があるかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-07T05:20:20Z) - Are Diffusion Models Vulnerable to Membership Inference Attacks? [26.35177414594631]
拡散に基づく生成モデルは、画像合成に大きな可能性を示しているが、それらが引き起こすセキュリティとプライバシのリスクに関する研究が不足している。
共通プライバシー問題であるMIAに対する拡散モデルの脆弱性について検討する。
ステップワイズ・エラー比較メンバーシップ推論(SecMI)は,各時刻における前処理後推定のマッチングを評価することで,メンバーシップを推測するクエリベースのMIAである。
論文 参考訳(メタデータ) (2023-02-02T18:43:16Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - Membership Inference of Diffusion Models [9.355840335132124]
本稿では,拡散モデルに対するメンバシップ推論攻撃に関する最初の研究を体系的に提示する。
損失ベースと可能性ベースという2つの攻撃手法が提案されている。
本手法は,プライバシに敏感なデータに対して,さまざまなデータセットに対して,最先端の拡散モデルを用いて評価する。
論文 参考訳(メタデータ) (2023-01-24T12:34:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。