論文の概要: Differentially Private Generative Adversarial Networks with Model
Inversion
- arxiv url: http://arxiv.org/abs/2201.03139v1
- Date: Mon, 10 Jan 2022 02:26:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 17:31:30.386220
- Title: Differentially Private Generative Adversarial Networks with Model
Inversion
- Title(参考訳): モデルインバージョンを持つ微分プライベート生成逆ネットワーク
- Authors: Dongjie Chen, Sen-ching Samson Cheung, Chen-Nee Chuah, Sally Ozonoff
- Abstract要約: GAN(Generative Adversarial Network)のトレーニングにおいて機密データを保護するためには,差分プライベート(DP)勾配降下法を用いる。
本稿では,パブリックジェネレータを介して,まずプライベートデータを潜在空間にマッピングするDPMI法を提案する。
Inception Score, Fr'echet Inception Distance, and accuracy under the same privacy guarantee。
- 参考スコア(独自算出の注目度): 6.651002556438805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect sensitive data in training a Generative Adversarial Network (GAN),
the standard approach is to use differentially private (DP) stochastic gradient
descent method in which controlled noise is added to the gradients. The quality
of the output synthetic samples can be adversely affected and the training of
the network may not even converge in the presence of these noises. We propose
Differentially Private Model Inversion (DPMI) method where the private data is
first mapped to the latent space via a public generator, followed by a
lower-dimensional DP-GAN with better convergent properties. Experimental
results on standard datasets CIFAR10 and SVHN as well as on a facial landmark
dataset for Autism screening show that our approach outperforms the standard
DP-GAN method based on Inception Score, Fr\'echet Inception Distance, and
classification accuracy under the same privacy guarantee.
- Abstract(参考訳): gan(generative adversarial network)の訓練においてセンシティブなデータを保護するために、標準的なアプローチは、勾配に制御されたノイズを付加した差分プライベート(dp)確率勾配降下法を用いることである。
出力された合成サンプルの品質は悪影響を及ぼすことができ、ネットワークのトレーニングはこれらのノイズの存在下では収束しない。
本稿では,プライベートデータをパブリックジェネレータを介して潜在空間にマッピングし,より収束性の高い低次元dp-ganを導出する差分プライベートモデルインバージョン(dpmi)法を提案する。
CIFAR10とSVHNの標準データセットおよび自閉症スクリーニングのための顔のランドマークデータセットに対する実験結果から、本手法は、インセプションスコア、Fr'echet Inception Distance、および同一のプライバシー保証に基づく標準DP-GAN法よりも優れていることが示された。
関連論文リスト
- Rethinking Improved Privacy-Utility Trade-off with Pre-existing Knowledge for DP Training [31.559864332056648]
異種雑音(DP-Hero)を有する一般微分プライバシーフレームワークを提案する。
DP-Hero上では、勾配更新に注入されたノイズが不均一であり、予め確立されたモデルパラメータによって誘導されるDP-SGDの異種バージョンをインスタンス化する。
提案するDP-Heroの有効性を検証・説明するための総合的な実験を行い,最新技術と比較するとトレーニング精度が向上した。
論文 参考訳(メタデータ) (2024-09-05T08:40:54Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Domain Generalization Guided by Gradient Signal to Noise Ratio of
Parameters [69.24377241408851]
ソースドメインへのオーバーフィッティングは、ディープニューラルネットワークの勾配に基づくトレーニングにおいて一般的な問題である。
本稿では,ネットワークパラメータの勾配-信号-雑音比(GSNR)を選択することを提案する。
論文 参考訳(メタデータ) (2023-10-11T10:21:34Z) - DPGOMI: Differentially Private Data Publishing with Gaussian Optimized
Model Inversion [8.204115285718437]
本稿では,ガウス最適化モデルインバージョン(DPGOMI)を用いた微分プライベートデータパブリッシングを提案し,この問題に対処する。
提案手法では, パブリックジェネレータを用いてプライベートデータを潜時空間にマッピングし, コンバージェンス特性が向上した低次元DP-GANを用いる。
以上の結果から,DPGOMIは,インセプションスコア,Freche't Inception Distance,分類性能において,標準DP-GAN法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-06T18:46:22Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - DP-CGAN: Differentially Private Synthetic Data and Label Generation [18.485995499841]
本稿では,新たなクリッピング・摂動戦略に基づくDP-CGANトレーニングフレームワークを提案する。
DP-CGANは, 1桁のエプシロンパラメータを用いて, MNISTデータセット上で視覚的, 経験的に有望な結果を生成することができることを示す。
論文 参考訳(メタデータ) (2020-01-27T11:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。