論文の概要: DP-PCA: Statistically Optimal and Differentially Private PCA
- arxiv url: http://arxiv.org/abs/2205.13709v1
- Date: Fri, 27 May 2022 02:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:01:02.432009
- Title: DP-PCA: Statistically Optimal and Differentially Private PCA
- Title(参考訳): DP-PCA:統計学的に最適で個人的PCA
- Authors: Xiyang Liu, Weihao Kong, Prateek Jain, Sewoong Oh
- Abstract要約: DP-PCAは、両方の制限を克服するシングルパスアルゴリズムである。
準ガウスデータに対しては、$n=tilde O(d)$ であっても、ほぼ最適な統計的誤差率を提供する。
- 参考スコア(独自算出の注目度): 44.22319983246645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the canonical statistical task of computing the principal component
from $n$ i.i.d.~data in $d$ dimensions under
$(\varepsilon,\delta)$-differential privacy. Although extensively studied in
literature, existing solutions fall short on two key aspects: ($i$) even for
Gaussian data, existing private algorithms require the number of samples $n$ to
scale super-linearly with $d$, i.e., $n=\Omega(d^{3/2})$, to obtain non-trivial
results while non-private PCA requires only $n=O(d)$, and ($ii$) existing
techniques suffer from a non-vanishing error even when the randomness in each
data point is arbitrarily small. We propose DP-PCA, which is a single-pass
algorithm that overcomes both limitations. It is based on a private minibatch
gradient ascent method that relies on {\em private mean estimation}, which adds
minimal noise required to ensure privacy by adapting to the variance of a given
minibatch of gradients. For sub-Gaussian data, we provide nearly optimal
statistical error rates even for $n=\tilde O(d)$. Furthermore, we provide a
lower bound showing that sub-Gaussian style assumption is necessary in
obtaining the optimal error rate.
- Abstract(参考訳): 我々は、主成分を$n$ i.i.d.~dataから$d$次元で計算する標準統計タスクを$(\varepsilon,\delta)$-differential privacyの下で研究する。
文献で広く研究されているが、既存のソリューションは2つの重要な側面に不足している: (i$) ガウスデータであっても、既存のプライベートアルゴリズムでは、各データポイントのランダム性が任意に小さい場合であっても、非自明な結果を得るために、$d$で超線形にスケールするために$n$(d^{3/2})$というサンプル数を必要とする。
両制約を克服するシングルパスアルゴリズムであるDP-PCAを提案する。
これは "em private mean estimation} に依存するプライベートなミニバッチ勾配上昇法に基づいており、与えられた勾配のミニバッチの分散に適応することでプライバシーを確保するのに必要な最小限のノイズを追加する。
準ゲージデータに対しては、$n=\tilde o(d)$でもほぼ最適の統計誤差率を提供する。
さらに, 最適誤差率を得るためには, サブガウシアンスタイルの仮定が必要であることを示す下限を与える。
関連論文リスト
- Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Computational-Statistical Gaps for Improper Learning in Sparse Linear Regression [4.396860522241307]
疎線形回帰の効率的な学習アルゴリズムは, 負のスパイクを持つスパースPCA問題を解くのに有効であることを示す。
我々は,低次および統計的クエリの低い境界を減らしたスパース問題に対して補う。
論文 参考訳(メタデータ) (2024-02-21T19:55:01Z) - PLAN: Variance-Aware Private Mean Estimation [12.452663855242344]
差分的にプライベートな平均推定は、データ分析と機械学習のためのプライバシ保護アルゴリズムの重要な構成要素である。
ベクトル $boldsymbolsigma$ のスキューを利用する方法を示し、$ell$エラーで(ゼロ桁の)微分プライベート平均推定値を得る。
PLANの有効性を検証するため,合成データと実世界のデータの両方で精度を実証的に評価した。
論文 参考訳(メタデータ) (2023-06-14T21:04:50Z) - Privately Estimating a Gaussian: Efficient, Robust and Optimal [6.901744415870126]
純微分プライバシー(DP)モデルと近似微分プライバシー(DP)モデルの両方において、ガウス分布をプライベートに推定する効率的なアルゴリズムを提供する。
純粋なDP設定では、未知の$d$次元ガウス分布を任意の全変分誤差まで推定する効率的なアルゴリズムを与える。
平均推定の特別な場合、我々のアルゴリズムは$widetilde O(d1.5)$の最適なサンプル複雑性を達成し、以前の作業から$widetilde O(d1.5)$のバウンドを改善する。
論文 参考訳(メタデータ) (2022-12-15T18:27:39Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - (Nearly) Optimal Private Linear Regression via Adaptive Clipping [22.639650869444395]
固定されたガウス型分布から各データ点をサンプリングする微分プライベート線形回帰問題について検討する。
本稿では,各イテレーションの点を置換せずにサンプリングする1パスのミニバッチ勾配勾配法(DP-AMBSSGD)を提案し,解析する。
論文 参考訳(メタデータ) (2022-07-11T08:04:46Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。