論文の概要: Tight and Robust Private Mean Estimation with Few Users
- arxiv url: http://arxiv.org/abs/2110.11876v1
- Date: Fri, 22 Oct 2021 16:02:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:56:15.353964
- Title: Tight and Robust Private Mean Estimation with Few Users
- Title(参考訳): ユーザ数が少ない、厳密で堅牢なプライベート平均推定
- Authors: Hossein Esfandiari, Vahab Mirrokni, Shyam Narayanan
- Abstract要約: ユーザレベルの差分プライバシーに基づく高次元平均推定について検討する。
可能な限り少数のユーザを使って、$(eps,delta)$-differentially privateメカニズムを設計します。
- 参考スコア(独自算出の注目度): 16.22135057266913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study high-dimensional mean estimation under user-level
differential privacy, and attempt to design an
$(\epsilon,\delta)$-differentially private mechanism using as few users as
possible. In particular, we provide a nearly optimal trade-off between the
number of users and the number of samples per user required for private mean
estimation, even when the number of users is as low as
$O(\frac{1}{\epsilon}\log\frac{1}{\delta})$. Interestingly our bound
$O(\frac{1}{\epsilon}\log\frac{1}{\delta})$ on the number of users is
independent of the dimension, unlike the previous work that depends
polynomially on the dimension, solving a problem left open by Amin et
al.~(ICML'2019). Our mechanism enjoys robustness up to the point that even if
the information of $49\%$ of the users are corrupted, our final estimation is
still approximately accurate. Finally, our results also apply to a broader
range of problems such as learning discrete distributions, stochastic convex
optimization, empirical risk minimization, and a variant of stochastic gradient
descent via a reduction to differentially private mean estimation.
- Abstract(参考訳): 本研究では,ユーザレベルのディファレンシャルプライバシの下での高次元平均推定と,可能な限り少数のユーザを用いた$(\epsilon,\delta)$-differentially private機構の設計を試みる。
特に、ユーザが$O(\frac{1}{\epsilon}\log\frac{1}{\delta})$である場合でも、ユーザ数とプライベート平均推定に必要なユーザ一人当たりのサンプル数とのほぼ最適なトレードオフを提供します。
興味深いことに、我々の有界な$O(\frac{1}{\epsilon}\log\frac{1}{\delta})$は、Amin et al が残した問題を多項式的に解決する以前の作業とは異なり、ユーザ数では次元に依存しない。
ICML'2019より。
我々のメカニズムは、ユーザーの49ドル%の情報が破損したとしても、最終的な見積もりは依然としてほぼ正確である。
最後に, 離散分布の学習, 確率凸最適化, 経験的リスク最小化, 微分的平均推定への還元による確率的勾配降下の変種など, 幅広い問題に適用した。
関連論文リスト
- Distribution-Aware Mean Estimation under User-level Local Differential Privacy [5.267844649650687]
ユーザレベルのローカル差分プライバシに基づく平均推定の問題について考察する。
分布認識平均推定アルゴリズムに基づいて、平均推定タスクに対して、最悪の場合のリスクに対して、$M$依存上界を確立する。
論文 参考訳(メタデータ) (2024-10-12T11:57:52Z) - Differential Privacy with Multiple Selections [52.5653572324012]
感性のある機能を持つユーザがサーバから異なるプライベートな方法でレコメンデーションを得るような設定について検討する。
本稿では,サーバが複数のレコメンデーションを送信可能なマルチセレクションアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-07-19T19:34:51Z) - On Differentially Private U Statistics [25.683071759227293]
局所的なH'ajekプロジェクションを用いて、データの異なる部分集合を再重み付けする新しいしきい値に基づくアプローチを提案する。
これは、非退化U統計に対してほぼ最適なプライベート誤差をもたらし、退化U統計に対してほぼ最適であることを示す強い指標となる。
論文 参考訳(メタデータ) (2024-07-06T03:27:14Z) - Discrete Distribution Estimation under User-level Local Differential
Privacy [37.65849910114053]
ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討する。
ユーザレベルの$varepsilon$-LDPでは、各ユーザは$mge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
論文 参考訳(メタデータ) (2022-11-07T18:29:32Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。