論文の概要: MACE: A Flexible Framework for Membership Privacy Estimation in
Generative Models
- arxiv url: http://arxiv.org/abs/2009.05683v5
- Date: Wed, 12 Oct 2022 12:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 22:08:53.252529
- Title: MACE: A Flexible Framework for Membership Privacy Estimation in
Generative Models
- Title(参考訳): MACE: 生成モデルにおけるメンバシッププライバシ推定のための柔軟なフレームワーク
- Authors: Yixi Xu, Sumit Mukherjee, Xiyang Liu, Shruti Tople, Rahul Dodhia, Juan
Lavista Ferres
- Abstract要約: 生成モデルにおけるメンバシッププライバシ推定のための最初の公式なフレームワークを提案する。
これまでの作業と比較すると、私たちのフレームワークはより現実的で柔軟な仮定をします。
- 参考スコア(独自算出の注目度): 14.290199072565162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative machine learning models are being increasingly viewed as a way to
share sensitive data between institutions. While there has been work on
developing differentially private generative modeling approaches, these
approaches generally lead to sub-par sample quality, limiting their use in real
world applications. Another line of work has focused on developing generative
models which lead to higher quality samples but currently lack any formal
privacy guarantees. In this work, we propose the first formal framework for
membership privacy estimation in generative models. We formulate the membership
privacy risk as a statistical divergence between training samples and hold-out
samples, and propose sample-based methods to estimate this divergence. Compared
to previous works, our framework makes more realistic and flexible assumptions.
First, we offer a generalizable metric as an alternative to the accuracy metric
especially for imbalanced datasets. Second, we loosen the assumption of having
full access to the underlying distribution from previous studies , and propose
sample-based estimations with theoretical guarantees. Third, along with the
population-level membership privacy risk estimation via the optimal membership
advantage, we offer the individual-level estimation via the individual privacy
risk. Fourth, our framework allows adversaries to access the trained model via
a customized query, while prior works require specific attributes.
- Abstract(参考訳): 生成型機械学習モデルは、組織間でセンシティブなデータを共有する方法と見なされている。
差分的にプライベートな生成モデリング手法の開発は行われているが、これらの手法は一般にサブパーサンプルの品質をもたらし、現実世界のアプリケーションでの使用を制限する。
別の研究は、高品質なサンプルにつながるが、正式なプライバシー保証がない生成モデルの開発に焦点を当てている。
本稿では,生成モデルにおけるメンバシッププライバシ推定のための最初の形式的枠組みを提案する。
トレーニングサンプルとホールドアウトサンプルの統計的ばらつきとして会員プライバシーリスクを定式化し,このばらつきを推定するためのサンプルベース手法を提案する。
これまでの作業と比較すると、私たちのフレームワークはより現実的で柔軟な仮定をします。
まず、特に不均衡なデータセットに対する精度指標の代替として一般化可能な計量を提供する。
第2に,従来の研究から基礎となる分布に完全にアクセスできるという仮定を緩めるとともに,理論的保証付きサンプルベース推定を提案する。
第3に,最適なメンバシップアドバンテージによる人口レベルのメンバシッププライバシリスク推定と合わせて,個人のプライバシリスクによる個人レベルの評価を行う。
第4に、我々のフレームワークは、敵がカスタマイズされたクエリを通してトレーニングされたモデルにアクセスできるようにしますが、以前の作業には特定の属性が必要です。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。