論文の概要: Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective
- arxiv url: http://arxiv.org/abs/2402.18607v2
- Date: Mon, 4 Mar 2024 03:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 23:15:41.540490
- Title: Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective
- Title(参考訳): 拡散モデル共有におけるプライバシーと公平性リスクの探求--敵対的視点から
- Authors: Xinjian Luo, Yangfan Jiang, Fei Wei, Yuncheng Wu, Xiaokui Xiao, Beng
Chin Ooi
- Abstract要約: 我々は,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的な視点で検討する。
提案手法は,受信機の下流モデルに悪影響を及ぼすために,フェアネス中毒攻撃を実施できることを実証する。
実世界のデータセットで行った実験は、異なる種類の拡散モデルに対して顕著な攻撃性能を示す。
- 参考スコア(独自算出の注目度): 31.010937126289953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have recently gained significant attention in both academia
and industry due to their impressive generative performance in terms of both
sampling quality and distribution coverage. Accordingly, proposals are made for
sharing pre-trained diffusion models across different organizations, as a way
of improving data utilization while enhancing privacy protection by avoiding
sharing private data directly. However, the potential risks associated with
such an approach have not been comprehensively examined.
In this paper, we take an adversarial perspective to investigate the
potential privacy and fairness risks associated with the sharing of diffusion
models. Specifically, we investigate the circumstances in which one party (the
sharer) trains a diffusion model using private data and provides another party
(the receiver) black-box access to the pre-trained model for downstream tasks.
We demonstrate that the sharer can execute fairness poisoning attacks to
undermine the receiver's downstream models by manipulating the training data
distribution of the diffusion model. Meanwhile, the receiver can perform
property inference attacks to reveal the distribution of sensitive features in
the sharer's dataset. Our experiments conducted on real-world datasets
demonstrate remarkable attack performance on different types of diffusion
models, which highlights the critical importance of robust data auditing and
privacy protection protocols in pertinent applications.
- Abstract(参考訳): 拡散モデルは最近, サンプリング品質と流通範囲の両面において, 優れた生成性能のため, 学術・産業ともに注目されている。
したがって、プライベートデータを直接共有することを避けてプライバシー保護を高めながら、データ利用を改善する方法として、さまざまな組織で事前訓練された拡散モデルを共有することを提案する。
しかし、こうしたアプローチに関連する潜在的なリスクは包括的に検討されていない。
本稿では,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的視点を用いて検討する。
具体的には、一方の当事者(共有者)がプライベートデータを用いて拡散モデルを訓練する状況を調査し、他方の当事者(受信者)にダウンストリームタスクの事前学習モデルへのアクセスを提供する。
拡散モデルのトレーニングデータ分布を操作することで、共有者が公平な毒殺攻撃を行い、受信者の下流モデルに悪影響を与えることを実証する。
一方、受信機はプロパティ推論攻撃を行い、共有者のデータセット内の機密機能の分布を明らかにする。
実世界のデータセットで行った実験では,様々な種類の拡散モデルに対する攻撃性能が顕著であり,関連するアプリケーションにおけるロバストなデータ監査とプライバシ保護プロトコルの重要性を強調した。
関連論文リスト
- Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Federated Learning with Diffusion Models for Privacy-Sensitive Vision
Tasks [27.780010580879377]
拡散モデルは視覚に関連したタスク、特に画像生成において大きな可能性を持つ。
しかし、それらのトレーニングは一般的に、一般に公開されているソースから収集されたデータに依存して、集中的に行われる。
このアプローチは、データ収集に対するプライバシー上の懸念を伴う医療分野など、多くの領域で実現可能でも実用的でもないかもしれない。
論文 参考訳(メタデータ) (2023-11-28T06:08:16Z) - When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary
Classifiers through Membership Inference Attacks [18.27174440444256]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - PriSampler: Mitigating Property Inference of Diffusion Models [6.5990719141691825]
この研究は、拡散モデルに対する資産推測攻撃に関する最初のプライバシー研究を体系的に提示する。
拡散モデルの特性推定のリスクを推測するモデルに依存しない新しいプラグイン手法PriSamplerを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:05:06Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Membership Inference of Diffusion Models [9.355840335132124]
本稿では,拡散モデルに対するメンバシップ推論攻撃に関する最初の研究を体系的に提示する。
損失ベースと可能性ベースという2つの攻撃手法が提案されている。
本手法は,プライバシに敏感なデータに対して,さまざまなデータセットに対して,最先端の拡散モデルを用いて評価する。
論文 参考訳(メタデータ) (2023-01-24T12:34:27Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。