論文の概要: Differentially Private Normalizing Flows for Privacy-Preserving Density
Estimation
- arxiv url: http://arxiv.org/abs/2103.14068v1
- Date: Thu, 25 Mar 2021 18:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:59:24.417513
- Title: Differentially Private Normalizing Flows for Privacy-Preserving Density
Estimation
- Title(参考訳): プライバシー保持密度推定のための微分プライベート正規化フロー
- Authors: Chris Waites and Rachel Cummings
- Abstract要約: 明示的な差分プライバシー保証を提供する正規化フローモデルの使用を提案します。
このアルゴリズムを差分プライベート異常検出のタスクにどのように適用できるかを示す。
- 参考スコア(独自算出の注目度): 10.561489862855334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing flow models have risen as a popular solution to the problem of
density estimation, enabling high-quality synthetic data generation as well as
exact probability density evaluation. However, in contexts where individuals
are directly associated with the training data, releasing such a model raises
privacy concerns. In this work, we propose the use of normalizing flow models
that provide explicit differential privacy guarantees as a novel approach to
the problem of privacy-preserving density estimation. We evaluate the efficacy
of our approach empirically using benchmark datasets, and we demonstrate that
our method substantially outperforms previous state-of-the-art approaches. We
additionally show how our algorithm can be applied to the task of
differentially private anomaly detection.
- Abstract(参考訳): 正規化フローモデルは密度推定問題に対する一般的な解として上昇し、高品質な合成データ生成と正確な確率密度評価を可能にした。
しかし、個人がトレーニングデータに直接関連している状況では、そのようなモデルのリリースはプライバシの懸念を引き起こす。
本稿では,プライバシ保存密度推定問題に対する新しいアプローチとして,明示的な微分プライバシー保証を提供する正規化フローモデルの利用を提案する。
ベンチマークデータを用いて,提案手法の有効性を実証的に評価し,提案手法が従来の手法よりも優れていることを示す。
さらに,我々のアルゴリズムが,差分プライベートな異常検出にどのように適用できるかを示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Source-Free Domain-Invariant Performance Prediction [68.39031800809553]
本研究では,不確実性に基づく推定を主軸としたソースフリー手法を提案する。
オブジェクト認識データセットのベンチマーク実験により、既存のソースベースの手法は、限られたソースサンプルの可用性で不足していることが判明した。
提案手法は,現在の最先端のソースフリーおよびソースベース手法よりも優れており,ドメイン不変性能推定の有効性が確認されている。
論文 参考訳(メタデータ) (2024-08-05T03:18:58Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Data Analytics with Differential Privacy [0.0]
我々は分散データとストリーミングデータを解析するための差分プライベートアルゴリズムを開発した。
分散モデルでは、学習の特定の問題 -- 分散形式で -- がデータのグローバルモデルであると考えている。
私たちは、ストリーミングモデル、ユーザーレベルのパンプライバシに対して、最も強力なプライバシー保証の1つを提供しています。
論文 参考訳(メタデータ) (2023-07-20T17:43:29Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Data-driven Regularized Inference Privacy [33.71757542373714]
データを衛生化するためのデータ駆動推論プライバシ保護フレームワークを提案する。
我々は変分法に基づく推論プライバシ・フレームワークを開発する。
プライバシー基準を推定するための実証的手法を提案する。
論文 参考訳(メタデータ) (2020-10-10T08:42:59Z) - Deconvoluting Kernel Density Estimation and Regression for Locally
Differentially Private Data [14.095523601311374]
ローカルな差分プライバシーは、機密性の高い個々のデータポイントを収集または公開するためのプライバシー文学のゴールドスタンダードとなっている。
しかし、局所的な差分データは、プライバシーを確保するために使われる付加ノイズのため、データの確率密度をゆがめることがある。
本研究では,スムースなカーネルを用いた密度推定手法を開発し,プライバシ保護ノイズの影響を除去する。
論文 参考訳(メタデータ) (2020-08-28T03:39:17Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。