論文の概要: Private High-Dimensional Hypothesis Testing
- arxiv url: http://arxiv.org/abs/2203.01537v1
- Date: Thu, 3 Mar 2022 06:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 17:04:40.892175
- Title: Private High-Dimensional Hypothesis Testing
- Title(参考訳): プライベート高次元仮説テスト
- Authors: Shyam Narayanan
- Abstract要約: 我々は高次元分布の個人性テストのための改良された差分プライベートアルゴリズムを提供する。
具体的には、ある固定された$mu*$に対して$mathcalN(mu*, Sigma)$、または少なくとも$alpha$の総変動距離を持つ$mathcalN(mu*, Sigma)$に由来するかどうかをテストすることができる。
- 参考スコア(独自算出の注目度): 4.133655523622441
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide improved differentially private algorithms for identity testing of
high-dimensional distributions. Specifically, for $d$-dimensional Gaussian
distributions with known covariance $\Sigma$, we can test whether the
distribution comes from $\mathcal{N}(\mu^*, \Sigma)$ for some fixed $\mu^*$ or
from some $\mathcal{N}(\mu, \Sigma)$ with total variation distance at least
$\alpha$ from $\mathcal{N}(\mu^*, \Sigma)$ with $(\varepsilon, 0)$-differential
privacy, using only \[\tilde{O}\left(\frac{d^{1/2}}{\alpha^2} +
\frac{d^{1/3}}{\alpha^{4/3} \cdot \varepsilon^{2/3}} + \frac{1}{\alpha \cdot
\varepsilon}\right)\] samples if the algorithm is allowed to be computationally
inefficient, and only \[\tilde{O}\left(\frac{d^{1/2}}{\alpha^2} +
\frac{d^{1/4}}{\alpha \cdot \varepsilon}\right)\] samples for a computationally
efficient algorithm. We also provide a matching lower bound showing that our
computationally inefficient algorithm has optimal sample complexity. We also
extend our algorithms to various related problems, including mean testing of
Gaussians with bounded but unknown covariance, uniformity testing of product
distributions over $\{\pm 1\}^d$, and tolerant testing.
Our results improve over the previous best work of Canonne, Kamath, McMillan,
Ullman, and Zakynthinou \cite{CanonneKMUZ20} for both computationally efficient
and inefficient algorithms, and even our computationally efficient algorithm
matches the optimal \emph{non-private} sample complexity of
$O\left(\frac{\sqrt{d}}{\alpha^2}\right)$ in many standard parameter settings.
In addition, our results show that, surprisingly, private identity testing of
$d$-dimensional Gaussians can be done with fewer samples than private identity
testing of discrete distributions over a domain of size $d$ \cite{AcharyaSZ18},
which refutes a conjectured lower bound of Canonne et al. \cite{CanonneKMUZ20}.
- Abstract(参考訳): 高次元分布の同一性検証のための微分プライベートアルゴリズムの改良を提案する。
Specifically, for $d$-dimensional Gaussian distributions with known covariance $\Sigma$, we can test whether the distribution comes from $\mathcal{N}(\mu^*, \Sigma)$ for some fixed $\mu^*$ or from some $\mathcal{N}(\mu, \Sigma)$ with total variation distance at least $\alpha$ from $\mathcal{N}(\mu^*, \Sigma)$ with $(\varepsilon, 0)$-differential privacy, using only \[\tilde{O}\left(\frac{d^{1/2}}{\alpha^2} + \frac{d^{1/3}}{\alpha^{4/3} \cdot \varepsilon^{2/3}} + \frac{1}{\alpha \cdot \varepsilon}\right)\] samples if the algorithm is allowed to be computationally inefficient, and only \[\tilde{O}\left(\frac{d^{1/2}}{\alpha^2} + \frac{d^{1/4}}{\alpha \cdot \varepsilon}\right)\] samples for a computationally efficient algorithm.
また,計算効率の悪いアルゴリズムが最適なサンプル複雑性を持つことを示す。
またアルゴリズムを様々な関連する問題にも拡張し、有界だが未知の共分散を持つガウス平均検定、$\{\pm 1\}^d$ の積分布の均一性検定、耐性テストなどを行う。
従来の計算効率と非効率的なアルゴリズムに対するcanonne, kamath, mcmillan, ullman, zakynthinou \cite{canonnekmuz20} のベストプラクティスよりも精度が向上し,多くの標準パラメータ設定において,計算効率のよいアルゴリズムでさえ,最適な \emph{non-private} サンプル複雑性である $o\left(\frac{\sqrt{d}}{\alpha^2}\right)$ に適合する。
さらに, 意外なことに, $d$-dimensional Gaussian のプライベートアイデンティティテストは, $d$ \cite{AcharyaSZ18} の領域上の離散分布のプライベートIDテストよりも少ないサンプルで行うことができる。
通称「CanonneKMUZ20」。
関連論文リスト
- Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Fast, Sample-Efficient, Affine-Invariant Private Mean and Covariance
Estimation for Subgaussian Distributions [8.40077201352607]
我々は,高次元共分散認識平均推定のための高速,微分プライベートなアルゴリズムを提案する。
我々のアルゴリズムは$tildemu$を生成し、$|mu|_Sigma leq alpha$が$n gtrsim tfrac d alpha2 + tfracd sqrtlog 1/deltaalpha varepsilon+fracdlog 1/deltavarepsilon$である。
論文 参考訳(メタデータ) (2023-01-28T16:57:46Z) - Gaussian Mean Testing Made Simple [46.03021473600576]
a distribution $p$ on $mathbbRd$ の i.d. サンプルを考えると、このタスクは以下のケースで高い確率で区別することである。
一ページ解析によるガウス平均検定の極めて単純なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-25T01:59:13Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Robust Sparse Mean Estimation via Sum of Squares [42.526664955704746]
本研究では,高次元スパース平均推定の問題点を,逆数外乱の$epsilon$-fractionの存在下で検討する。
我々のアルゴリズムは、サム・オブ・スクエア(Sum-of-Squares)ベースのアルゴリズムアプローチに従う。
論文 参考訳(メタデータ) (2022-06-07T16:49:54Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。