論文の概要: PLAN: Variance-Aware Private Mean Estimation
- arxiv url: http://arxiv.org/abs/2306.08745v2
- Date: Sat, 17 Jun 2023 15:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 00:44:20.680583
- Title: PLAN: Variance-Aware Private Mean Estimation
- Title(参考訳): PLAN: 変数対応のプライベート平均推定
- Authors: Martin Aum\"uller, Christian Janos Lebeda, Boel Nelson, Rasmus Pagh
- Abstract要約: 差分的にプライベートな平均推定は、データ分析と機械学習のためのプライバシ保護アルゴリズムの重要な構成要素である。
ベクトル $boldsymbolsigma$ のスキューを利用する方法を示し、$ell$エラーで(ゼロ桁の)微分プライベート平均推定値を得る。
PLANの有効性を検証するため,合成データと実世界のデータの両方で精度を実証的に評価した。
- 参考スコア(独自算出の注目度): 12.779570691818751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private mean estimation is an important building block in
privacy-preserving algorithms for data analysis and machine learning. Though
the trade-off between privacy and utility is well understood in the worst case,
many datasets exhibit structure that could potentially be exploited to yield
better algorithms. In this paper we present $\textit{Private Limit Adapted
Noise}$ (PLAN), a family of differentially private algorithms for mean
estimation in the setting where inputs are independently sampled from a
distribution $\mathcal{D}$ over $\mathbf{R}^d$, with coordinate-wise standard
deviations $\boldsymbol{\sigma} \in \mathbf{R}^d$. Similar to mean estimation
under Mahalanobis distance, PLAN tailors the shape of the noise to the shape of
the data, but unlike previous algorithms the privacy budget is spent
non-uniformly over the coordinates. Under a concentration assumption on
$\mathcal{D}$, we show how to exploit skew in the vector $\boldsymbol{\sigma}$,
obtaining a (zero-concentrated) differentially private mean estimate with
$\ell_2$ error proportional to $\|\boldsymbol{\sigma}\|_1$. Previous work has
either not taken $\boldsymbol{\sigma}$ into account, or measured error in
Mahalanobis distance $\unicode{x2013}$ in both cases resulting in $\ell_2$
error proportional to $\sqrt{d}\|\boldsymbol{\sigma}\|_2$, which can be up to a
factor $\sqrt{d}$ larger. To verify the effectiveness of PLAN, we empirically
evaluate accuracy on both synthetic and real world data.
- Abstract(参考訳): 差分プライベート平均推定は、データ分析と機械学習のためのプライバシ保存アルゴリズムの重要な構成要素である。
プライバシとユーティリティのトレードオフは最悪の場合よく理解されているが、多くのデータセットはより良いアルゴリズムを生み出すために悪用される可能性がある構造を示している。
本稿では、入力が分散$\mathcal{d}$ over $\mathbf{r}^d$ から独立にサンプリングされ、座標的に標準偏差$\boldsymbol{\sigma} \in \mathbf{r}^d$ を持つ設定において、平均推定のための微分的プライベートアルゴリズムの族である$\textit{private limit adapted noise}$ (plan) を提案する。
マハラノビス距離での推定と同様、PLANはノイズの形状をデータの形に調整するが、従来のアルゴリズムとは異なり、プライバシー予算は座標に不均一に費やされる。
$\mathcal{D}$ の濃度仮定の下で、ベクトル $\boldsymbol{\sigma}$ のスキューをどのように活用するかを示し、$\ell_2$ 誤差が $\|\boldsymbol{\sigma}\|_1$ に比例した(ゼロ濃度の)微分プライベート平均推定値を得る。
以前の研究は、$\boldsymbol{\sigma}$を考慮に入れなかったり、マハラノビス距離$\unicode{x2013}$で測定された誤差は、どちらも$\ell_2$エラーは$\sqrt{d}\|\boldsymbol{\sigma}\|_2$に比例する。
PLANの有効性を検証するため,合成データと実世界のデータの両方で精度を実証的に評価した。
関連論文リスト
- Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Online Robust Mean Estimation [37.746091744197656]
オンライン環境における高次元ロバスト平均推定問題について検討する。
このモデルでは、オンラインロバスト平均推定の主な2つの結果が証明されている。
論文 参考訳(メタデータ) (2023-10-24T15:28:43Z) - Improved Analysis of Sparse Linear Regression in Local Differential
Privacy Model [38.66115499136791]
局所微分プライバシー(LDP)モデルにおける疎線形回帰の問題を再考する。
そこで本研究では,この問題の第一種である革新的NLDPアルゴリズムを提案する。
その結果, 疎線形回帰問題における非私的ケース, 中央DPモデル, 局所DPモデルとの基本的差異が明らかとなった。
論文 参考訳(メタデータ) (2023-10-11T10:34:52Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Anonymized Histograms in Intermediate Privacy Models [54.32252900997422]
我々は,シャッフルDPおよびパンプライベートモデルにおいて,$tildeO_varepsilon(sqrtn)$とほぼ一致する誤差を保証するアルゴリズムを提案する。
我々のアルゴリズムは非常に単純で、離散的なラプラスノイズヒストグラムを後処理するだけである。
論文 参考訳(メタデータ) (2022-10-27T05:11:00Z) - DP-PCA: Statistically Optimal and Differentially Private PCA [44.22319983246645]
DP-PCAは、両方の制限を克服するシングルパスアルゴリズムである。
準ガウスデータに対しては、$n=tilde O(d)$ であっても、ほぼ最適な統計的誤差率を提供する。
論文 参考訳(メタデータ) (2022-05-27T02:02:17Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z) - Maximizing Determinants under Matroid Constraints [69.25768526213689]
我々は、$det(sum_i in Sv_i v_i v_itop)$が最大になるような基底を$S$$$$M$とする問題を研究する。
この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。
論文 参考訳(メタデータ) (2020-04-16T19:16:38Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。