論文の概要: imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2009.13839v1
- Date: Tue, 29 Sep 2020 08:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:54:12.193727
- Title: imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks
- Title(参考訳): imdpGAN: 生成逆ネットワークによるプライベートおよび特定データの生成
- Authors: Saurabh Gupta, Arun Balaji Buduru, Ponnurangam Kumaraguru
- Abstract要約: imdpGANは、プライバシー保護と潜伏表現を同時に達成するエンドツーエンドフレームワークである。
我々は、ImdpGANが個々のデータポイントのプライバシを保持し、生成したサンプルの特異性を制御するために潜時符号を学習していることを示す。
- 参考スコア(独自算出の注目度): 19.377726080729293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Network (GAN) and its variants have shown promising
results in generating synthetic data. However, the issues with GANs are: (i)
the learning happens around the training samples and the model often ends up
remembering them, consequently, compromising the privacy of individual samples
- this becomes a major concern when GANs are applied to training data including
personally identifiable information, (ii) the randomness in generated data -
there is no control over the specificity of generated samples. To address these
issues, we propose imdpGAN - an information maximizing differentially private
Generative Adversarial Network. It is an end-to-end framework that
simultaneously achieves privacy protection and learns latent representations.
With experiments on MNIST dataset, we show that imdpGAN preserves the privacy
of the individual data point, and learns latent codes to control the
specificity of the generated samples. We perform binary classification on digit
pairs to show the utility versus privacy trade-off. The classification accuracy
decreases as we increase privacy levels in the framework. We also
experimentally show that the training process of imdpGAN is stable but
experience a 10-fold time increase as compared with other GAN frameworks.
Finally, we extend imdpGAN framework to CelebA dataset to show how the privacy
and learned representations can be used to control the specificity of the
output.
- Abstract(参考訳): Generative Adversarial Network(GAN)とその変種は、合成データの生成において有望な結果を示している。
しかし、GANの問題は次のとおりである。
i) 学習はトレーニングサンプルの周りで行われ、モデルはしばしばそれらを覚えてしまうため、個々のサンプルのプライバシを損なうことになります。
(ii)生成データのランダム性 生成したサンプルの特異性を制御できない。
これらの問題に対処するために、差分的にプライベートなジェネレーティブ・アドバイサル・ネットワークを最大化する情報であるimdpGANを提案する。
プライバシー保護を同時に達成し、潜在表現を学習するエンドツーエンドフレームワークである。
MNISTデータセットを用いた実験により、ImdpGANは個々のデータポイントのプライバシを保持し、遅延符号を学習して生成されたサンプルの特異性を制御する。
我々は、ユーティリティ対プライバシトレードオフを示すために、桁対のバイナリ分類を行う。
分類精度は、フレームワークのプライバシーレベルが増加するにつれて低下する。
また,ImdpGANのトレーニングプロセスは安定だが,他のGANフレームワークと比較して10倍の時間増加を経験することを示した。
最後に、ImdpGANフレームワークをCelebAデータセットに拡張し、プライバシと学習された表現がどのようにして出力の特異性を制御できるかを示す。
関連論文リスト
- LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Local Differential Privacy in Graph Neural Networks: a Reconstruction Approach [17.000441871334683]
ユーザレベルでノードのプライバシを提供するための学習フレームワークを提案する。
我々は、分散化された微分プライバシーの概念、すなわちローカル微分プライバシに焦点を当てる。
摂動データから特徴やラベルを近似する再構成手法を開発した。
論文 参考訳(メタデータ) (2023-09-15T17:35:51Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Improving Correlation Capture in Generating Imbalanced Data using
Differentially Private Conditional GANs [2.2265840715792735]
DP-CGANSは,データ変換,サンプリング,コンディショニング,ネットワークトレーニングにより,現実的かつプライバシ保護データを生成する,微分プライベートな条件付きGANフレームワークである。
統計的類似性,機械学習性能,プライバシ測定の点から,3つの公開データセットと2つの実世界の個人健康データセットの最先端生成モデルを用いて,我々のモデルを広範囲に評価した。
論文 参考訳(メタデータ) (2022-06-28T06:47:27Z) - On the Privacy Properties of GAN-generated Samples [12.765060550622422]
GANが生成するサンプルは、本質的にいくつかの(弱い)プライバシー保証を満たすことを示す。
また,GAN生成サンプルのメンバシップ推論攻撃に対する堅牢性についても検討した。
論文 参考訳(メタデータ) (2022-06-03T00:29:35Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z) - DP-CGAN: Differentially Private Synthetic Data and Label Generation [18.485995499841]
本稿では,新たなクリッピング・摂動戦略に基づくDP-CGANトレーニングフレームワークを提案する。
DP-CGANは, 1桁のエプシロンパラメータを用いて, MNISTデータセット上で視覚的, 経験的に有望な結果を生成することができることを示す。
論文 参考訳(メタデータ) (2020-01-27T11:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。