論文の概要: Differentially Private Sampling from Distributions
- arxiv url: http://arxiv.org/abs/2211.08193v1
- Date: Tue, 15 Nov 2022 14:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 16:06:30.855433
- Title: Differentially Private Sampling from Distributions
- Title(参考訳): 分布からの微分的プライベートサンプリング
- Authors: Sofya Raskhodnikova, Satchit Sivakumar, Adam Smith, Marika Swanberg
- Abstract要約: 一部の体制では、プライベートサンプリングは非プライベートに$P$の記述を学ぶよりも少ない観察を必要とする。
分布のクラスによっては,非私的学習と比較して,私的学習に必要な観測回数のオーバーヘッドは,私的サンプリングに必要な観測回数によって完全に把握される。
- 参考スコア(独自算出の注目度): 1.452875650827562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We initiate an investigation of private sampling from distributions. Given a
dataset with $n$ independent observations from an unknown distribution $P$, a
sampling algorithm must output a single observation from a distribution that is
close in total variation distance to $P$ while satisfying differential privacy.
Sampling abstracts the goal of generating small amounts of realistic-looking
data. We provide tight upper and lower bounds for the dataset size needed for
this task for three natural families of distributions: arbitrary distributions
on $\{1,\ldots ,k\}$, arbitrary product distributions on $\{0,1\}^d$, and
product distributions on $\{0,1\}^d$ with bias in each coordinate bounded away
from 0 and 1. We demonstrate that, in some parameter regimes, private sampling
requires asymptotically fewer observations than learning a description of $P$
nonprivately; in other regimes, however, private sampling proves to be as
difficult as private learning. Notably, for some classes of distributions, the
overhead in the number of observations needed for private learning compared to
non-private learning is completely captured by the number of observations
needed for private sampling.
- Abstract(参考訳): 我々は,分布からの個人サンプリングの調査を開始する。
未知の分布から独立して$P$のデータセットが与えられた場合、サンプリングアルゴリズムは、差分プライバシーを満足しながら、全変動距離が$P$に近い分布から単一の観測を出力しなければならない。
サンプリングは、少量のリアルなデータを生成するという目標を抽象化する。
我々は、このタスクに必要なデータセットサイズについて、3つの自然な分布の任意の分布である$\{1,\ldots ,k\}$, $\{0,1\}^d$, $\{0,1\}^d$, $\{0,1\}^d$の任意の積分布と、各座標に偏りがある$\{0,1\}^d$を与える。
いくつかのパラメータレジームでは、プライベートサンプリングは非プライベートで$p$の記述を学ぶよりも漸近的に少ない観察を必要とするが、他のレジームではプライベートサンプリングはプライベート学習と同じくらい難しいことが証明されている。
特に、分布のクラスによっては、非プライベート学習と比較してプライベート学習に必要な観察回数のオーバーヘッドが、プライベートサンプリングに必要な観測回数によって完全に把握される。
関連論文リスト
- Private Distribution Learning with Public Data: The View from Sample
Compression [15.626115475759713]
公共データへのアクセスによる個人分布学習の課題について検討する。
我々は,クラス$mathcal Q$のパブリックな学習性は,サンプル圧縮スキームの存在に関係していることを示す。
論文 参考訳(メタデータ) (2023-08-11T17:15:12Z) - Differentially-Private Bayes Consistency [70.92545332158217]
差分プライバシー(DP)を満たすベイズ一貫した学習ルールを構築する。
ほぼ最適なサンプル複雑性を持つ半教師付き環境で,任意のVCクラスをプライベートに学習できることを実証する。
論文 参考訳(メタデータ) (2022-12-08T11:57:30Z) - Private Estimation with Public Data [10.176795938619417]
少人数の公開データへのアクセスによる差分プライベート(DP)推定について検討する。
DPの制約の下では、d+1公開データサンプルは、プライベートデータ分布のレンジパラメータへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-16T22:46:44Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Covariance-Aware Private Mean Estimation Without Private Covariance Estimation [10.036088581191592]
2つのサンプル係数差分プライベート平均推定器を$d$-dimensional(sub)Gaussian分布に対して提案する。
我々の推定子は、$| tildemu - mu |_Sigma leq alpha$, where $| cdot |_Sigma$がマハラノビス距離であるような$tildemu$を出力します。
論文 参考訳(メタデータ) (2021-06-24T21:40:07Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Compressive Privatization: Sparse Distribution Estimation under Locally
Differentially Privacy [18.43218511751587]
対象の分布がスパースかほぼスパースである限り、必要なサンプルの数は大幅に削減できることを示した。
我々のメカニズムは民営化と次元化を同時に行い、サンプルの複雑さは次元化の減少にのみ依存する。
論文 参考訳(メタデータ) (2020-12-03T17:14:23Z) - On the Intrinsic Differential Privacy of Bagging [69.70602220716718]
我々は、Bagingが、同じプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも、はるかに高い精度を達成することを示す。
実験結果から,Bagingは,同一のプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも格段に高い精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-08-22T14:17:55Z) - Private Mean Estimation of Heavy-Tailed Distributions [10.176795938619417]
差分的にプライベートな分布の平均推定におけるミニマックスサンプルの複雑さについて, 新たな上限値と下限値を与える。
$n = Thetaleft(frac1alpha2 + frac1alphafrack-1varepsilonright)$サンプルは必要で、$varepsilon$-differential privacyの下で$alpha$-accuracyと見積もるのに十分である。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。