論文の概要: Histogram Estimation under User-level Privacy with Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2206.03008v1
- Date: Tue, 7 Jun 2022 04:53:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:58:39.283975
- Title: Histogram Estimation under User-level Privacy with Heterogeneous Data
- Title(参考訳): 異種データを用いたユーザレベルのプライバシー下でのヒストグラム推定
- Authors: Yuhan Liu, Ananda Theertha Suresh, Wennan Zhu, Peter Kairouz, Marco
Gruteser
- Abstract要約: ユーザレベルの差分プライバシー下でのヒストグラム推定の問題点について検討する。
目標は、単一のユーザのすべてのエントリのプライバシを維持することだ。
そこで本研究では,後ろ向きのクリッピング閾値に関して,ほぼ2つの近似を達成できるアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 37.406400590568644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of histogram estimation under user-level differential
privacy, where the goal is to preserve the privacy of all entries of any single
user. While there is abundant literature on this classical problem under the
item-level privacy setup where each user contributes only one data point,
little has been known for the user-level counterpart. We consider the
heterogeneous scenario where both the quantity and distribution of data can be
different for each user. We propose an algorithm based on a clipping strategy
that almost achieves a two-approximation with respect to the best clipping
threshold in hindsight. This result holds without any distribution assumptions
on the data. We also prove that the clipping bias can be significantly reduced
when the counts are from non-i.i.d. Poisson distributions and show empirically
that our debiasing method provides improvements even without such constraints.
Experiments on both real and synthetic datasets verify our theoretical findings
and demonstrate the effectiveness of our algorithms.
- Abstract(参考訳): ユーザレベルの差分プライバシに基づくヒストグラム推定の問題について検討し,その目的は,ユーザのすべてのエントリのプライバシを維持することである。
アイテムレベルのプライバシ設定では、各ユーザが1つのデータポイントだけをコントリビュートするが、ユーザレベルのプライバシ設定では、この古典的な問題に関する文献が豊富である。
データの量と分布がユーザ毎に異なるという異種シナリオを考察する。
そこで本研究では,クリップングの最適閾値に対する近似をほぼ達成するクリッピング戦略に基づくアルゴリズムを提案する。
この結果は、データに対する分布の仮定なしに成り立つ。
また,非i.i.d.ポアソン分布からのクリッピングバイアスを有意に低減し,そのような制約がなくてもデバイアス法が改善をもたらすことを示す。
実データと合成データの両方における実験は、理論的な知見を検証し、アルゴリズムの有効性を実証する。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Scalable Private Partition Selection via Adaptive Weighting [66.09199304818928]
プライベート・セット・ユニオンでは、ユーザーは非有界宇宙からのアイテムのサブセットを保持する。
目標は、ユーザレベルの差分プライバシーを維持しながら、ユーザセットの統一から可能な限り多くのアイテムを出力することである。
そこで本研究では,プライバシに必要なしきい値よりもはるかに重い項目からより少ない項目へ適応的に重みを還元するアルゴリズムであるMaximumDegree (MAD)を提案する。
論文 参考訳(メタデータ) (2025-02-13T01:27:11Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - A Unifying Privacy Analysis Framework for Unknown Domain Algorithms in Differential Privacy [1.5773159234875098]
我々は、未知のドメイン上でヒストグラムをリリースするための、既存の微分プライベートアルゴリズムのいくつかを再検討する。
未知の領域でヒストグラムをリリースする主な実用的利点は、アルゴリズムが欠落したラベルを埋める必要がないことである。
いくつかの既存アルゴリズムのプライバシー分析のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-17T05:47:33Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Unbounded Differentially Private Quantile and Maximum Estimation [2.855485723554975]
単純な$textttAboveThreshold$の呼び出しは、最高の量子化に対してより正確でロバストな見積もりを提供する。
我々は、textttAboveThreshold$を改良することで、広く使われているスパースベクトルテクニックのプライバシー保証を改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-02T03:23:07Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。