論文の概要: Discrete Distribution Estimation under User-level Local Differential
Privacy
- arxiv url: http://arxiv.org/abs/2211.03757v1
- Date: Mon, 7 Nov 2022 18:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:58:28.241777
- Title: Discrete Distribution Estimation under User-level Local Differential
Privacy
- Title(参考訳): ユーザレベルの局所微分プライバシーに基づく離散分布推定
- Authors: Jayadev Acharya, Yuhan Liu, Ziteng Sun
- Abstract要約: ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討する。
ユーザレベルの$varepsilon$-LDPでは、各ユーザは$mge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
- 参考スコア(独自算出の注目度): 37.65849910114053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study discrete distribution estimation under user-level local differential
privacy (LDP). In user-level $\varepsilon$-LDP, each user has $m\ge1$ samples
and the privacy of all $m$ samples must be preserved simultaneously. We resolve
the following dilemma: While on the one hand having more samples per user
should provide more information about the underlying distribution, on the other
hand, guaranteeing the privacy of all $m$ samples should make the estimation
task more difficult. We obtain tight bounds for this problem under almost all
parameter regimes. Perhaps surprisingly, we show that in suitable parameter
regimes, having $m$ samples per user is equivalent to having $m$ times more
users, each with only one sample. Our results demonstrate interesting phase
transitions for $m$ and the privacy parameter $\varepsilon$ in the estimation
risk. Finally, connecting with recent results on shuffled DP, we show that
combined with random shuffling, our algorithm leads to optimal error guarantees
(up to logarithmic factors) under the central model of user-level DP in certain
parameter regimes. We provide several simulations to verify our theoretical
findings.
- Abstract(参考訳): ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討した。
ユーザレベルの$\varepsilon$-LDPでは、各ユーザは$m\ge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
一方、ユーザ1人当たりのサンプル数が増えると、基礎となるディストリビューションに関するより多くの情報を提供する必要があるが、一方で、すべての$m$サンプルのプライバシを保証することで、見積もりタスクがより難しくなる。
ほぼ全てのパラメータ規則の下でこの問題の厳密な境界を得る。
おそらく驚くことに、適切なパラメータレジームでは、1ユーザ当たり$m$のサンプルを持つのは、それぞれ1つのサンプルを持つ$m$倍のユーザを持つのと同値である。
以上より,推定リスクにおいて,プライバシパラメータである$\varepsilon$と,$m$の興味深いフェーズ遷移を示す。
最後に, シャッフルDPにおける最近の結果から, ランダムシャッフルと組み合わせることで, パラメータ構造におけるユーザレベルDPの中央モデルの下で, アルゴリズムが最適誤差保証(対数係数まで)をもたらすことを示す。
理論的結果を検証するため,いくつかのシミュレーションを行った。
関連論文リスト
- Distribution-Aware Mean Estimation under User-level Local Differential Privacy [5.267844649650687]
ユーザレベルのローカル差分プライバシに基づく平均推定の問題について考察する。
分布認識平均推定アルゴリズムに基づいて、平均推定タスクに対して、最悪の場合のリスクに対して、$M$依存上界を確立する。
論文 参考訳(メタデータ) (2024-10-12T11:57:52Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Tight and Robust Private Mean Estimation with Few Users [16.22135057266913]
ユーザレベルの差分プライバシーに基づく高次元平均推定について検討する。
可能な限り少数のユーザを使って、$(eps,delta)$-differentially privateメカニズムを設計します。
論文 参考訳(メタデータ) (2021-10-22T16:02:21Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。