論文の概要: On the Renyi Differential Privacy of the Shuffle Model
- arxiv url: http://arxiv.org/abs/2105.05180v1
- Date: Tue, 11 May 2021 16:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:44:55.482738
- Title: On the Renyi Differential Privacy of the Shuffle Model
- Title(参考訳): シャッフルモデルのrenyi微分プライバシーについて
- Authors: Antonious M. Girgis, Deepesh Data, Suhas Diggavi, Ananda Theertha
Suresh, and Peter Kairouz
- Abstract要約: シャッフルモデルでは、各$n$クライアントはローカル差分プライベート(LDP)メカニズムを使用してレスポンスをランダム化し、信頼できないサーバは各クライアントに関連付けることなくクライアントレスポンスのランダムな置換(シャッフル)のみを受け取ります。
本稿では,シャッフルドプライバシモデルにおける一般離散局所ランダム化機構に対する最初の非自明な保証について述べる。
- 参考スコア(独自算出の注目度): 25.052851351062845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The central question studied in this paper is Renyi Differential Privacy
(RDP) guarantees for general discrete local mechanisms in the shuffle privacy
model. In the shuffle model, each of the $n$ clients randomizes its response
using a local differentially private (LDP) mechanism and the untrusted server
only receives a random permutation (shuffle) of the client responses without
association to each client. The principal result in this paper is the first
non-trivial RDP guarantee for general discrete local randomization mechanisms
in the shuffled privacy model, and we develop new analysis techniques for
deriving our results which could be of independent interest. In applications,
such an RDP guarantee is most useful when we use it for composing several
private interactions. We numerically demonstrate that, for important regimes,
with composition our bound yields an improvement in privacy guarantee by a
factor of $8\times$ over the state-of-the-art approximate Differential Privacy
(DP) guarantee (with standard composition) for shuffled models. Moreover,
combining with Poisson subsampling, our result leads to at least $10\times$
improvement over subsampled approximate DP with standard composition.
- Abstract(参考訳): 本稿では、シャッフルプライバシモデルにおける一般的な離散的局所メカニズムの保証について、Renyi Differential Privacy (RDP) を用いて検討した。
シャッフルモデルでは、$n$クライアントのそれぞれがローカル差分秘密(LDP)機構を使用して応答をランダム化し、信頼されていないサーバは各クライアントと無関係にクライアント応答のランダムな置換(シャッフル)を受ける。
本研究の主な成果は、シャッフルプライバシモデルにおける一般的な離散的局所ランダム化機構に対する非自明なRDP保証であり、独立性のある結果を得るための新しい分析手法を開発した。
アプリケーションでは、そのような RDP 保証は、いくつかのプライベートなインタラクションを構成するために使用する際に最も有用である。
我々は、重要な体制において、我々の限定的な構成によって、シャッフルモデルに対する(標準構成の)最先端の近似微分プライバシー(DP)保証よりも、プライバシー保証が8\times$で改善されることを数値的に示す。
さらに,Poissonサブサンプリングと組み合わせることで,標準構成のサブサンプル近似DPよりも少なくとも10\times$の改善が得られた。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Universal Exact Compression of Differentially Private Mechanisms [47.57948804514929]
本稿では,任意の局所乱数化器の圧縮とシミュレートを目的とした,Poisson private representation (PPR) と呼ばれる新しい構成を提案する。
PPRは、データの結合分布と元のローカルランダム化器の出力を保存する。
実験結果から、PPRはコミュニケーション、正確性、中央および局所的な差分プライバシーの間のトレードオフを一貫して改善することが示された。
論文 参考訳(メタデータ) (2024-05-28T23:54:31Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Unified Enhancement of Privacy Bounds for Mixture Mechanisms via
$f$-Differential Privacy [41.51051636162107]
本稿では、シャッフルモデルと1点差分勾配勾配のプライバシー境界の改善に焦点をあてる。
シャッフルモデルに対するトレードオフ関数のクローズドフォーム式を導出し、最新の結果よりも優れる。
また, ホッケースティックの進行した関節凸性の$f$-DPアナログを, $(epsilon,delta)$-DPに関連するホッケースティックのばらつきについて検討した。
論文 参考訳(メタデータ) (2023-10-30T19:37:51Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z) - Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response [6.260747047974035]
ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
論文 参考訳(メタデータ) (2022-05-18T10:44:28Z) - Renyi Differential Privacy of the Subsampled Shuffle Model in
Distributed Learning [7.197592390105457]
クライアントは、プライバシを必要とするサーバとのインタラクションを通じて、学習モデルを反復的に構築する分散学習フレームワークで、プライバシを研究する。
最適化とフェデレートラーニング(FL)パラダイムによって動機付けられ、各ラウンドで少数のデータサンプルがランダムにサブサンプリングされた場合に焦点を当てる。
より強力なローカルプライバシ保証を得るために,各クライアントがローカルディファレンシャル・プライベート(LDP)機構を用いて応答をランダム化するシャッフルプライバシ・モデルを用いてこれを検証した。
論文 参考訳(メタデータ) (2021-07-19T11:43:24Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。