論文の概要: Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response
- arxiv url: http://arxiv.org/abs/2205.08858v2
- Date: Mon, 29 Apr 2024 21:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 20:26:54.550247
- Title: Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response
- Title(参考訳): $k$-Randomized Response を用いたシャッフルモデルの高次プライバシー保証
- Authors: Sayan Biswas, Kangsoo Jung, Catuscia Palamidessi,
- Abstract要約: ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
- 参考スコア(独自算出の注目度): 6.260747047974035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most differentially private (DP) algorithms assume a central model in which a reliable third party inserts noise to queries made on datasets, or a local model where the users locally perturb their data. However, the central model is vulnerable via a single point of failure, and in the local model, the utility of the data deteriorates significantly. The recently proposed shuffle model is an intermediate framework between the central and the local paradigms where the users send their locally privatized data to a server where messages are shuffled, effacing the link between a privatized message and the corresponding user, giving a better trade-off between privacy and utility than the local model, as its privacy gets amplified without adding more noise. In this paper, we theoretically derive the strictest known bound for DP guarantee for the shuffle models with $k$-Randomized Response local randomizers. There on, we focus on the utility of the shuffle model for histogram queries. Leveraging on the matrix inversion method, which is used to approximate the original distribution from the empirical one produced by the $k$-RR mechanism, we de-noise the histogram produced by the shuffle model to evaluate the total variation distance of the resulting histogram from the true one, which we regard as the measure of utility of the privacy mechanism. We perform experiments on both synthetic and real data to compare the privacy-utility trade-off of the shuffle model with that of the central one privatized by adding the state-of-the-art Gaussian noise to each bin. Although the experimental results stay consistent with the literature that favour the central model, we see that, the difference in statistical utilities between the central and the shuffle models is very small, showing that they are almost comparable under the same level of DP.
- Abstract(参考訳): ほとんどの微分プライベート(DP)アルゴリズムは、信頼できるサードパーティがデータセットで作成されたクエリにノイズを挿入する中心モデル、あるいはユーザがデータをローカルに摂動するローカルモデルを想定している。
しかし、中央モデルは単一障害点を通して脆弱であり、局所モデルではデータの実用性が著しく低下する。
最近提案されたシャッフルモデル(shuffle model)は、メッセージがシャッフルされたサーバにローカルにプライベート化されたデータを送信し、プライベート化されたメッセージと対応するユーザの間のリンクを表現し、プライバシーとユーティリティのトレードオフをローカルモデルよりも向上させるという、中央パラダイムとローカルパラダイムの中間フレームワークである。
本稿では,$k$-Randomized Response 局所ランダム化器を用いたシャッフルモデルのDP保証について,理論上最も厳密な境界を導出する。
そこで我々は,ヒストグラムクエリにおけるシャッフルモデルの有用性に着目した。
我々は,$k$-RR機構で生成した経験的分布から元の分布を近似する行列逆転法を用いて,シャッフルモデルにより生成されたヒストグラムを除音し,結果として得られたヒストグラムの総変動距離を真から評価する。
我々は合成データと実データの両方を用いて、シャッフルモデルのプライバシー利用トレードオフと、最先端のガウスノイズを各ビンに付加して民営化した中心データの比較実験を行った。
実験結果は中央モデルを好む文献と一致しないが, 中央モデルとシャッフルモデルとの統計ユーティリティの差は非常に小さく, ほぼ同じ水準のDPであることを示す。
関連論文リスト
- No-regret Exploration in Shuffle Private Reinforcement Learning [18.142491344065046]
パーソナライズされたサービスにおけるユーザのプライバシの懸念に対処するために、差分プライバシー(DP)がエピソード強化学習(RL)に導入された。
シャッフルモデルでは,信頼されたシャッフルが中央エージェントに送信する前に,ユーザのデータをランダムに置換する。
分析の結果,アルゴリズムは集中型モデルに匹敵するほぼ最適の後悔を達成し,プライバシコストの点で局所モデルよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-18T15:24:11Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Differentially Private Aggregation via Imperfect Shuffling [64.19885806149958]
本稿では,メッセージがほぼ均一にシャッフルされる不完全なシャッフル差分プライバシモデルを導入し,キュレーターによるプライベートアグリゲーションの検証を行った。
驚くべきことに、不完全なシャッフルモデルには追加のエラーオーバーヘッドは必要ない。
論文 参考訳(メタデータ) (2023-08-28T17:34:52Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Shuffle Private Linear Contextual Bandits [9.51828574518325]
シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
論文 参考訳(メタデータ) (2022-02-11T11:53:22Z) - On the Renyi Differential Privacy of the Shuffle Model [25.052851351062845]
シャッフルモデルでは、各$n$クライアントはローカル差分プライベート(LDP)メカニズムを使用してレスポンスをランダム化し、信頼できないサーバは各クライアントに関連付けることなくクライアントレスポンスのランダムな置換(シャッフル)のみを受け取ります。
本稿では,シャッフルドプライバシモデルにおける一般離散局所ランダム化機構に対する最初の非自明な保証について述べる。
論文 参考訳(メタデータ) (2021-05-11T16:34:09Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - The Limits of Pan Privacy and Shuffle Privacy for Learning and
Estimation [3.2942333712377083]
種々の高次元学習および推定問題に対して,シャッフルモデルとパンプライベートモデルでは,中央モデルと比較してサンプルの複雑さが指数関数的に高くなることを示す。
我々の研究は、パンプライベートモデルと一般的なマルチメッセージシャッフルモデルの両方に対して、これらの問題に対する最初の非自明な下界を与える。
論文 参考訳(メタデータ) (2020-09-17T01:15:55Z) - On the Intrinsic Differential Privacy of Bagging [69.70602220716718]
我々は、Bagingが、同じプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも、はるかに高い精度を達成することを示す。
実験結果から,Bagingは,同一のプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも格段に高い精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-08-22T14:17:55Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。