論文の概要: Continual Mean Estimation Under User-Level Privacy
- arxiv url: http://arxiv.org/abs/2212.09980v1
- Date: Tue, 20 Dec 2022 03:44:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:17:43.816150
- Title: Continual Mean Estimation Under User-Level Privacy
- Title(参考訳): ユーザレベルプライバシに基づく連続平均推定
- Authors: Anand Jerry George, Lekshmi Ramesh, Aditya Vikram Singh, Himanshu
Tyagi
- Abstract要約: ユーザレベルの差分プライベート(DP)であるサンプルストリームの集団平均推定値を継続的にリリースする問題について考察する。
本稿では,ユーザレベルの$varepsilon$-DPとなるように,毎回平均推定値をインスタント$t$で出力するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 21.513703308495774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of continually releasing an estimate of the
population mean of a stream of samples that is user-level differentially
private (DP). At each time instant, a user contributes a sample, and the users
can arrive in arbitrary order. Until now these requirements of continual
release and user-level privacy were considered in isolation. But, in practice,
both these requirements come together as the users often contribute data
repeatedly and multiple queries are made. We provide an algorithm that outputs
a mean estimate at every time instant $t$ such that the overall release is
user-level $\varepsilon$-DP and has the following error guarantee: Denoting by
$M_t$ the maximum number of samples contributed by a user, as long as
$\tilde{\Omega}(1/\varepsilon)$ users have $M_t/2$ samples each, the error at
time $t$ is $\tilde{O}(1/\sqrt{t}+\sqrt{M}_t/t\varepsilon)$. This is a
universal error guarantee which is valid for all arrival patterns of the users.
Furthermore, it (almost) matches the existing lower bounds for the
single-release setting at all time instants when users have contributed equal
number of samples.
- Abstract(参考訳): 我々は,ユーザレベルの微分的プライベート(dp)なサンプルストリームの集団平均の推定値を継続的に公表する問題を考える。
毎回、ユーザはサンプルをコントリビュートし、任意の順番で到着することができる。
これまでは、継続リリースとユーザレベルのプライバシの要件は独立して検討されていた。
しかし実際には、ユーザが繰り返しデータにコントリビュートし、複数のクエリが実行されるため、これらの要件はどちらも一致します。
全体のリリースがユーザレベル$\varepsilon$-DPであるように、毎回平均推定値を出力するアルゴリズムを提供する。 $M_t$で記述すると、ユーザが提供したサンプルの最大数$\tilde{\Omega}(1/\varepsilon)$ユーザがそれぞれ$M_t/2$サンプルを持っている限り、そのエラー時に$t$は$\tilde{O}(1/\sqrt{t}+\sqrt{M}_t/t\varepsilon)$である。
これは普遍的なエラー保証であり、ユーザのすべての到着パターンに有効である。
さらに、(ほとんど)ユーザが同じ数のサンプルを提供した瞬間に、シングルリリース設定の既存の下位境界と一致します。
関連論文リスト
- Distribution-Aware Mean Estimation under User-level Local Differential Privacy [5.267844649650687]
ユーザレベルのローカル差分プライバシに基づく平均推定の問題について考察する。
分布認識平均推定アルゴリズムに基づいて、平均推定タスクに対して、最悪の場合のリスクに対して、$M$依存上界を確立する。
論文 参考訳(メタデータ) (2024-10-12T11:57:52Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Private Vector Mean Estimation in the Shuffle Model: Optimal Rates Require Many Messages [63.366380571397]
本稿では,プライバシのシャッフルモデルにおけるプライベートベクトル平均推定の問題について検討する。
我々は,$tildemathcalOleft(min(nvarepsilon2,d)right)$ message per users を用いて,最適なエラーを実現する新しいマルチメッセージプロトコルを提案する。
論文 参考訳(メタデータ) (2024-04-16T00:56:36Z) - User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Discrete Distribution Estimation under User-level Local Differential
Privacy [37.65849910114053]
ユーザレベルの局所差分プライバシー(LDP)に基づく離散分布推定について検討する。
ユーザレベルの$varepsilon$-LDPでは、各ユーザは$mge1$サンプルを持ち、すべての$m$サンプルのプライバシを同時に保存する必要がある。
論文 参考訳(メタデータ) (2022-11-07T18:29:32Z) - Tight and Robust Private Mean Estimation with Few Users [16.22135057266913]
ユーザレベルの差分プライバシーに基づく高次元平均推定について検討する。
可能な限り少数のユーザを使って、$(eps,delta)$-differentially privateメカニズムを設計します。
論文 参考訳(メタデータ) (2021-10-22T16:02:21Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Learning discrete distributions: user vs item-level privacy [47.05234904407048]
近年,フェデレート学習のような実践的なアプリケーションでは,単一ユーザのすべての項目に対するプライバシ保護が求められている。
ユーザレベルの差分プライバシーを持つシンボルを$k$で学習する際の基本的な問題について検討する。
ユーザ数が$tildemathcalO(k/(malpha2) + k/sqrtmepsilonalpha)$とスケールする仕組みを提案する。
論文 参考訳(メタデータ) (2020-07-27T16:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。