論文の概要: Training generative models from privatized data
- arxiv url: http://arxiv.org/abs/2306.09547v2
- Date: Fri, 1 Mar 2024 01:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-04 14:30:45.642176
- Title: Training generative models from privatized data
- Title(参考訳): 民営化データから生成モデルを訓練する
- Authors: Daria Reshetova, Wei-Ning Chen, Ayfer \"Ozg\"ur
- Abstract要約: ローカル差分プライバシーは、プライバシを保存するデータ収集の強力な方法である。
本研究では,GAN(Generative Adversarial Networks)を差分民営化データに基づいて学習するためのフレームワークを開発する。
- 参考スコア(独自算出の注目度): 9.584000954415476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy is a powerful method for privacy-preserving data
collection. In this paper, we develop a framework for training Generative
Adversarial Networks (GANs) on differentially privatized data. We show that
entropic regularization of optimal transport - a popular regularization method
in the literature that has often been leveraged for its computational benefits
- enables the generator to learn the raw (unprivatized) data distribution even
though it only has access to privatized samples. We prove that at the same time
this leads to fast statistical convergence at the parametric rate. This shows
that entropic regularization of optimal transport uniquely enables the
mitigation of both the effects of privatization noise and the curse of
dimensionality in statistical convergence. We provide experimental evidence to
support the efficacy of our framework in practice.
- Abstract(参考訳): ローカル差分プライバシーは、プライバシを保存するデータ収集の強力な方法である。
本稿では,差分民営化データに基づくGAN(Generative Adversarial Networks)の学習フレームワークを開発する。
最適輸送のエントロピー正則化 - 計算上の利点のためにしばしば活用されている文献における一般的な正則化手法 - は、民営化されたサンプルへのアクセスしか持たないにもかかわらず、ジェネレータが生のデータ分布を学習できることを示した。
同時に、これはパラメトリックレートでの高速な統計収束をもたらすことを証明している。
このことは、最適輸送のエントロピー正則化は、統計収束における民営化ノイズと次元の呪いの両方の効果を一意に緩和できることを示している。
実践における枠組みの有効性を裏付ける実験的な証拠を提供する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Enforcing Privacy in Distributed Learning with Performance Guarantees [57.14673504239551]
分散学習と最適化戦略の民営化について検討する。
グラフ構造に対して十分に調整されていないため, 一般的な加法的乱乱摂動方式は性能を低下させることを示す。
論文 参考訳(メタデータ) (2023-01-16T13:03:27Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。