論文の概要: Histogram Estimation under User-level Privacy with Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2206.03008v1
- Date: Tue, 7 Jun 2022 04:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:58:39.283975
- Title: Histogram Estimation under User-level Privacy with Heterogeneous Data
- Title(参考訳): 異種データを用いたユーザレベルのプライバシー下でのヒストグラム推定
- Authors: Yuhan Liu, Ananda Theertha Suresh, Wennan Zhu, Peter Kairouz, Marco
Gruteser
- Abstract要約: ユーザレベルの差分プライバシー下でのヒストグラム推定の問題点について検討する。
目標は、単一のユーザのすべてのエントリのプライバシを維持することだ。
そこで本研究では,後ろ向きのクリッピング閾値に関して,ほぼ2つの近似を達成できるアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 37.406400590568644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of histogram estimation under user-level differential
privacy, where the goal is to preserve the privacy of all entries of any single
user. While there is abundant literature on this classical problem under the
item-level privacy setup where each user contributes only one data point,
little has been known for the user-level counterpart. We consider the
heterogeneous scenario where both the quantity and distribution of data can be
different for each user. We propose an algorithm based on a clipping strategy
that almost achieves a two-approximation with respect to the best clipping
threshold in hindsight. This result holds without any distribution assumptions
on the data. We also prove that the clipping bias can be significantly reduced
when the counts are from non-i.i.d. Poisson distributions and show empirically
that our debiasing method provides improvements even without such constraints.
Experiments on both real and synthetic datasets verify our theoretical findings
and demonstrate the effectiveness of our algorithms.
- Abstract(参考訳): ユーザレベルの差分プライバシに基づくヒストグラム推定の問題について検討し,その目的は,ユーザのすべてのエントリのプライバシを維持することである。
アイテムレベルのプライバシ設定では、各ユーザが1つのデータポイントだけをコントリビュートするが、ユーザレベルのプライバシ設定では、この古典的な問題に関する文献が豊富である。
データの量と分布がユーザ毎に異なるという異種シナリオを考察する。
そこで本研究では,クリップングの最適閾値に対する近似をほぼ達成するクリッピング戦略に基づくアルゴリズムを提案する。
この結果は、データに対する分布の仮定なしに成り立つ。
また,非i.i.d.ポアソン分布からのクリッピングバイアスを有意に低減し,そのような制約がなくてもデバイアス法が改善をもたらすことを示す。
実データと合成データの両方における実験は、理論的な知見を検証し、アルゴリズムの有効性を実証する。
関連論文リスト
- A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - A Unifying Privacy Analysis Framework for Unknown Domain Algorithms in Differential Privacy [1.5773159234875098]
我々は、未知のドメイン上でヒストグラムをリリースするための、既存の微分プライベートアルゴリズムのいくつかを再検討する。
未知の領域でヒストグラムをリリースする主な実用的利点は、アルゴリズムが欠落したラベルを埋める必要がないことである。
いくつかの既存アルゴリズムのプライバシー分析のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-17T05:47:33Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Unbounded Differentially Private Quantile and Maximum Estimation [2.855485723554975]
単純な$textttAboveThreshold$の呼び出しは、最高の量子化に対してより正確でロバストな見積もりを提供する。
我々は、textttAboveThreshold$を改良することで、広く使われているスパースベクトルテクニックのプライバシー保証を改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-02T03:23:07Z) - Collaborative likelihood-ratio estimation over graphs [55.98760097296213]
グラフに基づく相対的制約のない最小二乗重要度フィッティング(GRULSIF)
我々はこの考え方を、グラフベースの相対的非制約最小二乗重要度フィッティング(GRULSIF)と呼ばれる具体的な非パラメトリック手法で開発する。
我々は、ノード当たりの観測回数、グラフのサイズ、およびグラフ構造がタスク間の類似性をどの程度正確にエンコードしているかといった変数が果たす役割を強調する、協調的なアプローチの収束率を導出する。
論文 参考訳(メタデータ) (2022-05-28T15:37:03Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。