論文の概要: The Elusive Pursuit of Replicating PATE-GAN: Benchmarking, Auditing, Debugging
- arxiv url: http://arxiv.org/abs/2406.13985v1
- Date: Thu, 20 Jun 2024 04:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 17:27:03.288175
- Title: The Elusive Pursuit of Replicating PATE-GAN: Benchmarking, Auditing, Debugging
- Title(参考訳): PATE-GANをリプリケートするための最善策:ベンチマーク、監査、デバッグ
- Authors: Georgi Ganev, Meenatchi Sundaram Muthu Selva Annamalai, Emiliano De Cristofaro,
- Abstract要約: PATE-GANは、GAN(Generative Adversarial Networks)とPATEのプライベートトレーニングアプローチを組み合わせた一般的なアルゴリズムとして登場した。
原著者の3つ(サブセット)を含む6つのオープンソースPATE-GAN実装を分析し,ベンチマークする。
DP監査を含む詳細なプライバシ評価を提示し、すべての実装が意図したよりも多くのプライバシをリークし、17のプライバシ違反やその他の5つのバグを明らかにします。
- 参考スコア(独自算出の注目度): 11.900523702759598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic data created by differentially private (DP) generative models is increasingly used in real-world settings. In this context, PATE-GAN has emerged as a popular algorithm, combining Generative Adversarial Networks (GANs) with the private training approach of PATE (Private Aggregation of Teacher Ensembles). In this paper, we analyze and benchmark six open-source PATE-GAN implementations, including three by (a subset of) the original authors. First, we shed light on architecture deviations and empirically demonstrate that none replicate the utility performance reported in the original paper. Then, we present an in-depth privacy evaluation, including DP auditing, showing that all implementations leak more privacy than intended and uncovering 17 privacy violations and 5 other bugs. Our codebase is available from https://github.com/spalabucr/pategan-audit.
- Abstract(参考訳): 差分プライベート(DP)生成モデルによって生成された合成データは、現実世界の設定においてますます使われている。
この文脈において、PATE-GANは、GAN(Generative Adversarial Networks)とPATE(Private Aggregation of Teacher Ensembles)のプライベートトレーニングアプローチを組み合わせた一般的なアルゴリズムとして登場した。
本稿では,PATE-GANのオープンソース実装を6つ分析し,原作者の3つ(サブセット)を含むベンチマークを行う。
まず、アーキテクチャの逸脱に光を当て、元の論文で報告された実用性能を再現するものではないことを実証的に示しました。
そして、DP監査を含む詳細なプライバシ評価を行い、すべての実装が意図したよりも多くのプライバシをリークし、17のプライバシ違反やその他の5つのバグを明らかにします。
私たちのコードベースはhttps://github.com/spalabucr/pategan-audit.comから入手可能です。
関連論文リスト
- "What do you want from theory alone?" Experimenting with Tight Auditing of Differentially Private Synthetic Data Generation [11.900523702759598]
差分プライベートな合成データ生成アルゴリズムを監査する。
我々は、識別ゲームやメンバーシップ推論攻撃を行う相手を介して情報漏洩を計算する。
私たちは現在、DP-SDGからのプライバシー漏洩を厳格に見積もるために、ホワイトボックスMIAだけでなく最悪のデータセットも必要としています。
論文 参考訳(メタデータ) (2024-05-16T14:23:48Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Using Autoencoders on Differentially Private Federated Learning GANs [11.273823322905345]
本稿では,DP-Fed-Avg GANの代替版を紹介する。
また,この分野におけるDP-Fed-Avg GANの新規適応と最先端実装の比較を行った。
論文 参考訳(メタデータ) (2022-06-24T13:03:55Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - DP-SGD vs PATE: Which Has Less Disparate Impact on GANs? [0.0]
我々は、ディープラーニング、DP-SGD、PATEの2つのよく知られたDPフレームワークで訓練されたGANを、異なるデータ不均衡設定で比較する。
我々の実験は、PATEがDP-SGDと異なり、プライバシーとユーティリティのトレードオフは単調に減少していないことを一貫して示している。
論文 参考訳(メタデータ) (2021-11-26T17:25:46Z) - DTGAN: Differential Private Training for Tabular GANs [6.174448419090292]
本稿では,DTGAN_GとDTGAN_Dの2つの変種からなる条件付きワッサースタインGANであるDTGANを提案する。
我々は,DPの理論的プライバシー保証を,メンバーシップや属性推論攻撃に対して実証的に評価する。
その結果,DP-SGD フレームワークは PATE よりも優れており,DP 判別器の方が訓練収束に最適であることが示唆された。
論文 参考訳(メタデータ) (2021-07-06T10:28:05Z) - PATE-AAE: Incorporating Adversarial Autoencoder into Private Aggregation
of Teacher Ensembles for Spoken Command Classification [53.764020085834645]
教師アンサンブル(PATE)のプライベートアグリゲーションにおけるGAN(Generative Adversarial Network)の代替として,AAE(Adversarial Autoencoder)を提案する。
AAEアーキテクチャにより、潜伏ベクトルの識別訓練により、優れた合成音声ネイティブが得られる。
PATE-AAEは、代替プライバシー保護ソリューションと比較して、平均分類精度をそれぞれ+$2.11%$と+$6.60%$改善します。
論文 参考訳(メタデータ) (2021-04-02T23:10:57Z) - imdpGAN: Generating Private and Specific Data with Generative
Adversarial Networks [19.377726080729293]
imdpGANは、プライバシー保護と潜伏表現を同時に達成するエンドツーエンドフレームワークである。
我々は、ImdpGANが個々のデータポイントのプライバシを保持し、生成したサンプルの特異性を制御するために潜時符号を学習していることを示す。
論文 参考訳(メタデータ) (2020-09-29T08:03:32Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。