論文の概要: Conditional Density Estimations from Privacy-Protected Data
- arxiv url: http://arxiv.org/abs/2310.12781v1
- Date: Thu, 19 Oct 2023 14:34:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:54:56.674169
- Title: Conditional Density Estimations from Privacy-Protected Data
- Title(参考訳): プライバシー保護データからの条件密度推定
- Authors: Xiaofei Xiong, Nianqiao P. Ju, Sanguo Zhang
- Abstract要約: プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
具体的には、モデルパラメータの後方分布を近似するために、フレキシブルな分布の族としてニューラル条件密度推定器を用いる。
プライバシとユーティリティのトレードオフを図示し、有効な統計的推論手順を設計する必要性と実現可能性について実験と分析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many modern statistical analysis and machine learning applications require
training models on sensitive user data. Differential privacy provides a formal
guarantee that individual-level information about users does not leak. In this
framework, randomized algorithms inject calibrated noise into the confidential
data, resulting in privacy-protected datasets or queries. However, restricting
access to only the privatized data during statistical analysis makes it
computationally challenging to perform valid inferences on parameters
underlying the confidential data. In this work, we propose simulation-based
inference methods from privacy-protected datasets. Specifically, we use neural
conditional density estimators as a flexible family of distributions to
approximate the posterior distribution of model parameters given the observed
private query results. We illustrate our methods on discrete time-series data
under an infectious disease model and on ordinary linear regression models.
Illustrating the privacy-utility trade-off, our experiments and analysis
demonstrate the necessity and feasibility of designing valid statistical
inference procedures to correct for biases introduced by the privacy-protection
mechanisms.
- Abstract(参考訳): 現代の統計分析や機械学習アプリケーションの多くは、センシティブなユーザデータのトレーニングモデルを必要とする。
差分プライバシーは、個人レベルのユーザーの情報が漏洩しないという正式な保証を提供する。
このフレームワークでは、ランダム化されたアルゴリズムが機密データに校正されたノイズを注入し、プライバシー保護されたデータセットやクエリを生成する。
しかし、統計分析において、民営データのみへのアクセスを制限することは、機密データの背後にあるパラメータに対して有効な推論を行うことを計算的に困難にする。
本研究では,プライバシ保護データセットからのシミュレーションに基づく推論手法を提案する。
具体的には,神経条件密度推定器をフレキシブルな分布系として使用し,観察された個人的問合せ結果からモデルパラメータの後方分布を近似する。
本稿では,感染症モデルに基づく個別時系列データと通常の線形回帰モデルについて述べる。
プライバシ保護機構によって引き起こされるバイアスを正すための有効な統計的推論手順を設計する必要性と実現可能性を示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Epsilon*: Privacy Metric for Machine Learning Models [7.461284823977013]
Epsilon*は、単一のモデルインスタンスのプライバシリスクを、プライバシ緩和戦略の展開前、またはデプロイ後、測定するための新しい指標である。
モデル予測へのブラックボックスアクセスのみを必要とし、トレーニングデータの再サンプリングやモデル再トレーニングを必要とせず、差分プライバシでトレーニングされていないモデルのプライバシリスクを測定するために使用できる。
論文 参考訳(メタデータ) (2023-07-21T00:49:07Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。