論文の概要: Preserving Privacy in GANs Against Membership Inference Attack
- arxiv url: http://arxiv.org/abs/2311.03172v1
- Date: Mon, 6 Nov 2023 15:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:58:44.184510
- Title: Preserving Privacy in GANs Against Membership Inference Attack
- Title(参考訳): 会員推論攻撃に対するGANのプライバシ保護
- Authors: Mohammadhadi Shateri, Francisco Messina, Fabrice Labeau, Pablo
Piantanida
- Abstract要約: GAN(Generative Adversarial Networks)は、合成データの生成に広く利用されている。
最近の研究では、GANがトレーニングデータサンプルに関する情報を漏洩する可能性があることが示されている。
これにより、GANはメンバーシップ推論アタック(MIA)に脆弱になる
- 参考スコア(独自算出の注目度): 30.668589815716775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have been widely used for generating
synthetic data for cases where there is a limited size real-world dataset or
when data holders are unwilling to share their data samples. Recent works
showed that GANs, due to overfitting and memorization, might leak information
regarding their training data samples. This makes GANs vulnerable to Membership
Inference Attacks (MIAs). Several defense strategies have been proposed in the
literature to mitigate this privacy issue. Unfortunately, defense strategies
based on differential privacy are proven to reduce extensively the quality of
the synthetic data points. On the other hand, more recent frameworks such as
PrivGAN and PAR-GAN are not suitable for small-size training datasets. In the
present work, the overfitting in GANs is studied in terms of the discriminator,
and a more general measure of overfitting based on the Bhattacharyya
coefficient is defined. Then, inspired by Fano's inequality, our first defense
mechanism against MIAs is proposed. This framework, which requires only a
simple modification in the loss function of GANs, is referred to as the maximum
entropy GAN or MEGAN and significantly improves the robustness of GANs to MIAs.
As a second defense strategy, a more heuristic model based on minimizing the
information leaked from generated samples about the training data points is
presented. This approach is referred to as mutual information minimization GAN
(MIMGAN) and uses a variational representation of the mutual information to
minimize the information that a synthetic sample might leak about the whole
training data set. Applying the proposed frameworks to some commonly used data
sets against state-of-the-art MIAs reveals that the proposed methods can reduce
the accuracy of the adversaries to the level of random guessing accuracy with a
small reduction in the quality of the synthetic data samples.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、限られたサイズの実世界のデータセットやデータ保持者がデータサンプルの共有を望まない場合に、合成データを生成するために広く使用されている。
最近の研究によると、GANは過度な適合と記憶のために、トレーニングデータサンプルに関する情報を漏らす可能性がある。
これにより、GANはメンバーシップ推論攻撃(MIA)に脆弱になる。
このプライバシー問題を軽減するためにいくつかの防衛戦略が文献に提案されている。
残念ながら、差分プライバシーに基づく防衛戦略は、合成データポイントの品質を広範囲に低減することが証明されている。
一方、PrivGANやPAR-GANといった最近のフレームワークは、小規模のトレーニングデータセットには適していない。
本研究では, GANsにおけるオーバーフィッティングを判別器を用いて検討し, Bhattacharyya係数に基づくオーバーフィッティングのより一般的な尺度を定義した。
次に、ファノの不等式に触発されて、MIAに対する最初の防御機構を提案する。
このフレームワークは、GANの損失関数を単純な修正しか必要とせず、最大エントロピーGANまたはMEGANと呼ばれ、MIAに対するGANの堅牢性を大幅に改善する。
第2の防衛戦略として、トレーニングデータポイントに関する生成されたサンプルから流出した情報を最小化することに基づくよりヒューリスティックなモデルを示す。
このアプローチは相互情報最小化GAN(MIMGAN)と呼ばれ、相互情報の変動表現を用いて、合成サンプルがトレーニングデータセット全体について漏洩する可能性のある情報を最小化する。
提案手法を一般的なデータセットに適用することにより, 提案手法は, 合成データサンプルの品質を小さくすることで, 敵の精度をランダムな推測精度のレベルまで低下させることができることを明らかにした。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - A GAN-Based Data Poisoning Attack Against Federated Learning Systems and Its Countermeasure [17.975736855580674]
本稿では,VagGANという新たなデータ中毒モデルを提案する。
VagueGANは、GAN(Generative Adversarial Network)の変異を利用して、一見正当であるがノイズの多い有毒なデータを生成することができる。
我々の攻撃方法は一般によりステルス性が高く、複雑性の低いFL性能の劣化に有効である。
論文 参考訳(メタデータ) (2024-05-19T04:23:40Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - privGAN: Protecting GANs from membership inference attacks at low cost [5.735035463793008]
Generative Adversarial Networks (GAN)は、合成画像のリリースを、オリジナルのデータセットを公開せずにデータを共有するための実行可能なアプローチにした。
近年の研究では、GANモデルとその合成データを用いて、相手によるトレーニングセットメンバーシップを推測できることが示されている。
ここでは、ジェネレータが識別器を騙すだけでなく、メンバーシップ推論攻撃を防御するために訓練される新しいGANアーキテクチャ(privGAN)を開発する。
論文 参考訳(メタデータ) (2019-12-31T20:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。