論文の概要: User-Level Private Learning via Correlated Sampling
- arxiv url: http://arxiv.org/abs/2110.11208v1
- Date: Thu, 21 Oct 2021 15:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 18:39:25.338494
- Title: User-Level Private Learning via Correlated Sampling
- Title(参考訳): 関連サンプリングによるユーザレベルプライベートラーニング
- Authors: Badih Ghazi, Ravi Kumar, Pasin Manurangsi
- Abstract要約: 我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
- 参考スコア(独自算出の注目度): 49.453751858361265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most works in learning with differential privacy (DP) have focused on the
setting where each user has a single sample. In this work, we consider the
setting where each user holds $m$ samples and the privacy protection is
enforced at the level of each user's data. We show that, in this setting, we
may learn with a much fewer number of users. Specifically, we show that, as
long as each user receives sufficiently many samples, we can learn any
privately learnable class via an $(\epsilon, \delta)$-DP algorithm using only
$O(\log(1/\delta)/\epsilon)$ users. For $\epsilon$-DP algorithms, we show that
we can learn using only $O_{\epsilon}(d)$ users even in the local model, where
$d$ is the probabilistic representation dimension. In both cases, we show a
nearly-matching lower bound on the number of users required.
A crucial component of our results is a generalization of global stability
[Bun et al., FOCS 2020] that allows the use of public randomness. Under this
relaxed notion, we employ a correlated sampling strategy to show that the
global stability can be boosted to be arbitrarily close to one, at a polynomial
expense in the number of samples.
- Abstract(参考訳): ディファレンシャルプライバシ(DP)を学習する作業の多くは、各ユーザが単一のサンプルを持つ設定に重点を置いている。
本研究では,各ユーザが$m$のサンプルを持ち,各ユーザのデータレベルでプライバシ保護が実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
具体的には、各ユーザが十分な数のサンプルを受け取る限り、$o(\log(1/\delta)/\epsilon)$ユーザのみを使用して、$(\epsilon, \delta)$-dpアルゴリズムを使ってプライベートに学習可能なクラスを学習できることを示します。
$\epsilon$-dp アルゴリズムでは、ローカルモデルでも $o_{\epsilon}(d)$ ユーザしか学べず、ここで $d$ は確率的表現次元である。
いずれの場合も、要求するユーザ数にほぼ一致している下限を示します。
我々の結果の重要な要素は、一般のランダム性を利用することができるグローバルな安定性の一般化である[Bun et al., FOCS 2020]。
この緩和された概念の下では、大域的な安定性を任意に1つに近く、サンプル数において多項式費用で高めることができることを示すために相関サンプリング戦略を用いる。
関連論文リスト
- User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - Continual Mean Estimation Under User-Level Privacy [21.513703308495774]
ユーザレベルの差分プライベート(DP)であるサンプルストリームの集団平均推定値を継続的にリリースする問題について考察する。
本稿では,ユーザレベルの$varepsilon$-DPとなるように,毎回平均推定値をインスタント$t$で出力するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-20T03:44:25Z) - Discrete Distribution Estimation under User-level Local Differential
Privacy [37.65849910114053]
ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討する。
ユーザレベルの$varepsilon$-LDPでは、各ユーザは$mge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
論文 参考訳(メタデータ) (2022-11-07T18:29:32Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z) - Private Query Release Assisted by Public Data [96.6174729958211]
本研究では,公開データへのアクセスを補助する差分プライベートクエリリリースの問題について検討する。
我々は、$d/alpha$公開サンプルと$sqrtpd3/2/alpha2$プライベートサンプルのみを用いて、有限VC次元のクエリクラス$mathcalH$の問題を解くことができることを示した。
論文 参考訳(メタデータ) (2020-04-23T02:46:37Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。