論文の概要: Privacy-Preserving Adversarial Network (PPAN) for Continuous
non-Gaussian Attributes
- arxiv url: http://arxiv.org/abs/2003.05362v1
- Date: Wed, 11 Mar 2020 15:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:42:11.638644
- Title: Privacy-Preserving Adversarial Network (PPAN) for Continuous
non-Gaussian Attributes
- Title(参考訳): 連続非ガウス属性のためのプライバシ保護アドバイザリアルネットワーク(PPAN)
- Authors: Mohammadhadi Shateri, Fabrice Labeau
- Abstract要約: データ共有におけるプライバシの問題に対処するために、プライバシ保護敵ネットワーク(PPAN)が最近提案されている。
本研究では,プライバシ保存問題の下位値と上位値を使用する連続的な非ガウスデータに対するPPANモデルの評価を行った。
- 参考スコア(独自算出の注目度): 6.657723602564176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A privacy-preserving adversarial network (PPAN) was recently proposed as an
information-theoretical framework to address the issue of privacy in data
sharing. The main idea of this model was using mutual information as the
privacy measure and adversarial training of two deep neural networks, one as
the mechanism and another as the adversary. The performance of the PPAN model
for the discrete synthetic data, MNIST handwritten digits, and continuous
Gaussian data was evaluated compared to the analytically optimal trade-off. In
this study, we evaluate the PPAN model for continuous non-Gaussian data where
lower and upper bounds of the privacy-preserving problem are used. These bounds
include the Kraskov (KSG) estimation of entropy and mutual information that is
based on k-th nearest neighbor. In addition to the synthetic data sets, a
practical case for hiding the actual electricity consumption from smart meter
readings is examined. The results show that for continuous non-Gaussian data,
the PPAN model performs within the determined optimal ranges and close to the
lower bound.
- Abstract(参考訳): ppan(privacy-preserving adversarial network)は、データ共有におけるプライバシの問題に対処するための情報理論的なフレームワークである。
このモデルの主なアイデアは、相互情報をプライバシ尺度として使用し、2つのディープニューラルネットワークの敵対的トレーニングを行った。
離散合成データ, mnist手書き数字, 連続ガウスデータに対するppanモデルの性能を, 解析的最適トレードオフと比較して評価した。
本研究では,プライバシ保存問題の下限と上限が使用される連続非ガウスデータに対するppanモデルを評価する。
これらの境界には、k番目の隣人に基づくエントロピーと相互情報のクラスコフ(KSG)推定が含まれる。
合成データに加えて,スマートメーター読取装置から実際の電力消費を隠蔽する実践事例について検討した。
その結果, 連続的な非ガウスデータに対して, PPANモデルは決定された最適範囲内で動作し, 下位境界に近い値を示した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Differentially Private Graph Diffusion with Applications in Personalized PageRanks [15.529891375174165]
本研究は,雑音拡散イテレートを用いてエッジレベルの差分プライバシーを保証する新しいグラフ拡散フレームワークを提案する。
このアルゴリズムは拡散当たりのラプラスノイズを注入し、低次ノードによって誘導される高感度を緩和する度合いベースの閾値関数を採用する。
私たちのプライバシー損失分析は、PABI(Privacy Amplification by Iteration)に基づいています。
論文 参考訳(メタデータ) (2024-06-22T15:32:53Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On the Inherent Privacy Properties of Discrete Denoising Diffusion Models [17.773335593043004]
本稿では、離散拡散モデルに固有のプライバシー保護の先駆的な理論的探索について述べる。
我々のフレームワークは、トレーニングデータセット内の各データポイントの潜在的なプライバシー漏洩を解明する。
当社のバウンダリは、$$$サイズのデータポイントによるトレーニングが、プライバシー漏洩の急増につながっていることも示しています。
論文 参考訳(メタデータ) (2023-10-24T05:07:31Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Network Generation with Differential Privacy [4.297070083645049]
我々は、プライベート情報を含む実世界のグラフのプライベートな合成版を生成する問題について考察する。
本稿では,エッジ差分プライバシーを維持しつつ,実世界のネットワーク特性を再現できる生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-17T13:07:09Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - PIVEN: A Deep Neural Network for Prediction Intervals with Specific
Value Prediction [14.635820704895034]
PIと値予測の両方を生成するディープニューラルネットワークであるPIVENを提案する。
提案手法では,PI内のデータ分布に関する仮定は行わず,実世界の様々な問題に対して,その価値予測をより効果的に行う。
論文 参考訳(メタデータ) (2020-06-09T09:29:58Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。