論文の概要: BUDS: Balancing Utility and Differential Privacy by Shuffling
- arxiv url: http://arxiv.org/abs/2006.04125v1
- Date: Sun, 7 Jun 2020 11:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 07:56:59.103551
- Title: BUDS: Balancing Utility and Differential Privacy by Shuffling
- Title(参考訳): BUDS: シャッフルによるユーティリティと差別的プライバシのバランス
- Authors: Poushali Sengupta, Sudipta Paul, Subhankar Mishra
- Abstract要約: シャッフルやtextitBUDS によるユーティリティと差分プライバシーのバランスをとることは、クラウドソースの統計データベースへのアプローチである。
損失推定法とリスク最小化法を併用したワンホット符号化と反復シャッフル法により,新しいアルゴリズムを提案する。
バランスのとれたユーティリティとプライバシの実証テストの間、BUDSは$epsilon = 0.02$を生成します。
- 参考スコア(独自算出の注目度): 3.618133010429131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Balancing utility and differential privacy by shuffling or \textit{BUDS} is
an approach towards crowd-sourced, statistical databases, with strong privacy
and utility balance using differential privacy theory. Here, a novel algorithm
is proposed using one-hot encoding and iterative shuffling with the loss
estimation and risk minimization techniques, to balance both the utility and
privacy. In this work, after collecting one-hot encoded data from different
sources and clients, a step of novel attribute shuffling technique using
iterative shuffling (based on the query asked by the analyst) and loss
estimation with an updation function and risk minimization produces a utility
and privacy balanced differential private report. During empirical test of
balanced utility and privacy, BUDS produces $\epsilon = 0.02$ which is a very
promising result. Our algorithm maintains a privacy bound of $\epsilon = ln
[t/((n_1 - 1)^S)]$ and loss bound of $c' \bigg|e^{ln[t/((n_1 - 1)^S)]} -
1\bigg|$.
- Abstract(参考訳): ユーティリティとディファレンシャルプライバシのバランス シャッフルあるいは \textit{buds} はクラウドソースの統計データベースへのアプローチであり、ディファレンシャルプライバシ理論を用いた強力なプライバシとユーティリティバランスを持つ。
本稿では,1ホットエンコーディングと繰り返しシャッフルと損失推定とリスク最小化手法を用いて,有用性とプライバシの両立を図る新しいアルゴリズムを提案する。
本研究では、異なるソースやクライアントからワンホットエンコードされたデータを収集した後、反復シャッフルを用いた新しい属性シャッフル手法(アナリストからの問い合わせに基づく)と、アップダデーション関数による損失推定とリスク最小化により、実用性とプライバシのバランスの取れた差分レポートを生成する。
バランスのとれたユーティリティとプライバシの実証テストの間、BUDSは$\epsilon = 0.02$を生成します。
このアルゴリズムは、$\epsilon = ln[t/((n_1 - 1)^s)]$と$c' \bigg|e^{ln[t/((n_1 - 1)^s)]}1\bigg|$というプライバシバウンドを保持します。
関連論文リスト
- On Computing Pairwise Statistics with Local Differential Privacy [55.81991984375959]
例えば$binomn2-1 sum_i ne j f(x_i, x_j)$, $x_i$ は$i$thユーザへの入力を表し、ローカルモデルでは差分プライバシ(DP)である。
この定式化は、Kendallの$tau$ coefficient、Area Under Curve、Giniの平均差、Giniのエントロピーなどの重要なメトリクスをキャプチャする。
論文 参考訳(メタデータ) (2024-06-24T04:06:09Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Infinitely Divisible Noise in the Low Privacy Regime [9.39772079241093]
ユーザ間でデータを分散し、共有しないフェデレーション学習は、プライバシ保護機械学習に対する一般的なアプローチとして現れている。
実数値データに対して、最初の可除な無限ノイズ分布を提示し、$varepsilon$-differential privacyを実現する。
論文 参考訳(メタデータ) (2021-10-13T08:16:43Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Output Perturbation for Differentially Private Convex Optimization with
Improved Population Loss Bounds, Runtimes and Applications to Private
Adversarial Training [12.386462516398469]
強力な過剰なリスク境界を提供する効率的で実装が容易な差分プライベート(DP)アルゴリズムを見つけることは、現代の機械学習において重要な問題である。
我々は、滑らかさと強い凸性の存在下で、最もよく知られた$(epsilon, 0)$-DP人口損失境界と最速ランタイムを提供する。
我々はこの理論を2つの学習フレームワーク、傾きERMと逆学習フレームワークに適用する。
論文 参考訳(メタデータ) (2021-02-09T08:47:06Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。