論文の概要: Private Post-GAN Boosting
- arxiv url: http://arxiv.org/abs/2007.11934v2
- Date: Thu, 25 Mar 2021 16:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:13:16.544515
- Title: Private Post-GAN Boosting
- Title(参考訳): プライベートポストGANブースティング
- Authors: Marcel Neunhoeffer, Zhiwei Steven Wu, Cynthia Dwork
- Abstract要約: プライベートポストGANブーピング(Private PGB)は、GANトレーニング中に得られたジェネレータのシーケンスによって生成されたサンプルを組み合わせて高品質なデータセットを作成する、微分プライベートな方法である。
2次元トイデータ、MNIST画像、US国勢調査データ、標準機械学習予測タスクに基づいてPrivate PGBを評価する。
- 参考スコア(独自算出の注目度): 40.3768051738159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private GANs have proven to be a promising approach for
generating realistic synthetic data without compromising the privacy of
individuals. Due to the privacy-protective noise introduced in the training,
the convergence of GANs becomes even more elusive, which often leads to poor
utility in the output generator at the end of training. We propose Private
post-GAN boosting (Private PGB), a differentially private method that combines
samples produced by the sequence of generators obtained during GAN training to
create a high-quality synthetic dataset. To that end, our method leverages the
Private Multiplicative Weights method (Hardt and Rothblum, 2010) to reweight
generated samples. We evaluate Private PGB on two dimensional toy data, MNIST
images, US Census data and a standard machine learning prediction task. Our
experiments show that Private PGB improves upon a standard private GAN approach
across a collection of quality measures. We also provide a non-private variant
of PGB that improves the data quality of standard GAN training.
- Abstract(参考訳): 個人個人のプライバシーを損なうことなく、現実的な合成データを生成するための有望なアプローチであると証明されている。
トレーニングで導入されるプライバシー保護ノイズのため、gansの収束はさらに分かりやすくなり、トレーニング終了時に出力ジェネレータの実用性が低下することが多い。
本稿では,GAN訓練中に得られたジェネレータの配列から得られたサンプルを組み合わせて高品質な合成データセットを作成する,差分プライベートな手法であるPrivate Post-GAN boosting(Private PGB)を提案する。
そこで本手法では,プライベート乗算重み法(hardt and rothblum, 2010)を用いて,生成したサンプルの重み付けを行う。
2次元トイデータ、MNIST画像、US国勢調査データ、標準機械学習予測タスクに基づいてPrivate PGBを評価する。
実験の結果,Private PGB は標準のプライベート GAN アプローチにより,品質指標の収集によって改善されていることがわかった。
また、標準的なGANトレーニングのデータ品質を改善するPGBの非プライベート版も提供します。
関連論文リスト
- Beyond the Mean: Differentially Private Prototypes for Private Transfer Learning [16.028575596905554]
本稿では,個人間移動学習の新たなパラダイムとして,DPPL(differially Private Prototype Learning)を提案する。
DPPLは、埋め込み空間内の各プライベートクラスを表すプロトタイプを生成し、推論のために公開することができる。
エンコーダの事前トレーニング以上の公開データを活用すれば,プライバシユーティリティのトレードオフをさらに改善できることを示す。
論文 参考訳(メタデータ) (2024-06-12T09:41:12Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - DPGOMI: Differentially Private Data Publishing with Gaussian Optimized
Model Inversion [8.204115285718437]
本稿では,ガウス最適化モデルインバージョン(DPGOMI)を用いた微分プライベートデータパブリッシングを提案し,この問題に対処する。
提案手法では, パブリックジェネレータを用いてプライベートデータを潜時空間にマッピングし, コンバージェンス特性が向上した低次元DP-GANを用いる。
以上の結果から,DPGOMIは,インセプションスコア,Freche't Inception Distance,分類性能において,標準DP-GAN法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-06T18:46:22Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Differentially Private Generative Adversarial Networks with Model
Inversion [6.651002556438805]
GAN(Generative Adversarial Network)のトレーニングにおいて機密データを保護するためには,差分プライベート(DP)勾配降下法を用いる。
本稿では,パブリックジェネレータを介して,まずプライベートデータを潜在空間にマッピングするDPMI法を提案する。
Inception Score, Fr'echet Inception Distance, and accuracy under the same privacy guarantee。
論文 参考訳(メタデータ) (2022-01-10T02:26:26Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks [19.377726080729293]
imdpGANは、プライバシー保護と潜伏表現を同時に達成するエンドツーエンドフレームワークである。
我々は、ImdpGANが個々のデータポイントのプライバシを保持し、生成したサンプルの特異性を制御するために潜時符号を学習していることを示す。
論文 参考訳(メタデータ) (2020-09-29T08:03:32Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - DP-CGAN: Differentially Private Synthetic Data and Label Generation [18.485995499841]
本稿では,新たなクリッピング・摂動戦略に基づくDP-CGANトレーニングフレームワークを提案する。
DP-CGANは, 1桁のエプシロンパラメータを用いて, MNISTデータセット上で視覚的, 経験的に有望な結果を生成することができることを示す。
論文 参考訳(メタデータ) (2020-01-27T11:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。