論文の概要: Private Estimation with Public Data
- arxiv url: http://arxiv.org/abs/2208.07984v1
- Date: Tue, 16 Aug 2022 22:46:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:34:05.013528
- Title: Private Estimation with Public Data
- Title(参考訳): 公開データによる個人推定
- Authors: Alex Bie, Gautam Kamath, Vikrant Singhal
- Abstract要約: 少人数の公開データへのアクセスによる差分プライベート(DP)推定について検討する。
DPの制約の下では、d+1公開データサンプルは、プライベートデータ分布のレンジパラメータへの依存を取り除くのに十分であることを示す。
- 参考スコア(独自算出の注目度): 10.176795938619417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We initiate the study of differentially private (DP) estimation with access
to a small amount of public data. For private estimation of d-dimensional
Gaussians, we assume that the public data comes from a Gaussian that may have
vanishing similarity in total variation distance with the underlying Gaussian
of the private data. We show that under the constraints of pure or concentrated
DP, d+1 public data samples are sufficient to remove any dependence on the
range parameters of the private data distribution from the private sample
complexity, which is known to be otherwise necessary without public data. For
separated Gaussian mixtures, we assume that the underlying public and private
distributions are the same, and we consider two settings: (1) when given a
dimension-independent amount of public data, the private sample complexity can
be improved polynomially in terms of the number of mixture components, and any
dependence on the range parameters of the distribution can be removed in the
approximate DP case; (2) when given an amount of public data linear in the
dimension, the private sample complexity can be made independent of range
parameters even under concentrated DP, and additional improvements can be made
to the overall sample complexity.
- Abstract(参考訳): 我々は,少量の公開データへのアクセスによる差分プライベート(DP)推定の研究を開始する。
d-次元ガウシアンのプライベートな推定には、公開データは、基礎となるプライベートデータのガウシアンと総変動距離の類似性を失うガウシアンに由来すると仮定する。
DPの制約の下では、d+1公開データサンプルは、プライベートデータ分布のレンジパラメータへの依存を、パブリックデータなしでは不要であることが知られているプライベートサンプルの複雑さから排除するのに十分であることを示す。
For separated Gaussian mixtures, we assume that the underlying public and private distributions are the same, and we consider two settings: (1) when given a dimension-independent amount of public data, the private sample complexity can be improved polynomially in terms of the number of mixture components, and any dependence on the range parameters of the distribution can be removed in the approximate DP case; (2) when given an amount of public data linear in the dimension, the private sample complexity can be made independent of range parameters even under concentrated DP, and additional improvements can be made to the overall sample complexity.
関連論文リスト
- Statistical Inference for Privatized Data with Unknown Sample Size [7.933465724913661]
非有界差分プライバシー(DP)における民生データ分析のための理論とアルゴリズムの両方を開発する。
非有界DPと有界DPのサンプリング分布間の距離は、サンプルサイズ$n$が無限に近づくにつれてゼロになることを示す。
論文 参考訳(メタデータ) (2024-06-10T13:03:20Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Differentially Private Sampling from Distributions [1.452875650827562]
一部の体制では、プライベートサンプリングは非プライベートに$P$の記述を学ぶよりも少ない観察を必要とする。
分布のクラスによっては,非私的学習と比較して,私的学習に必要な観測回数のオーバーヘッドは,私的サンプリングに必要な観測回数によって完全に把握される。
論文 参考訳(メタデータ) (2022-11-15T14:56:42Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Compressive Privatization: Sparse Distribution Estimation under Locally
Differentially Privacy [18.43218511751587]
対象の分布がスパースかほぼスパースである限り、必要なサンプルの数は大幅に削減できることを示した。
我々のメカニズムは民営化と次元化を同時に行い、サンプルの複雑さは次元化の減少にのみ依存する。
論文 参考訳(メタデータ) (2020-12-03T17:14:23Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。