論文の概要: Successive Refinement of Privacy
- arxiv url: http://arxiv.org/abs/2005.11651v1
- Date: Sun, 24 May 2020 04:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:09:53.244318
- Title: Successive Refinement of Privacy
- Title(参考訳): 連続したプライバシーの保持
- Authors: Antonious M. Girgis, Deepesh Data, Kamalika Chaudhuri, Christina
Fragouli, and Suhas Diggavi
- Abstract要約: 本研究は、局所微分プライバシー(LDP)を実現するために、どの程度ランダム性が必要かを検討する。
モチベーションシナリオは、複数のアナリストに複数のレベルのプライバシを提供することである。
各ユーザのプライバシーを維持しながら、ランダムなキーを時間の経過とともに再利用できないことを示す。
- 参考スコア(独自算出の注目度): 38.20887036580742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work examines a novel question: how much randomness is needed to achieve
local differential privacy (LDP)? A motivating scenario is providing {\em
multiple levels of privacy} to multiple analysts, either for distribution or
for heavy-hitter estimation, using the \emph{same} (randomized) output. We call
this setting \emph{successive refinement of privacy}, as it provides
hierarchical access to the raw data with different privacy levels. For example,
the same randomized output could enable one analyst to reconstruct the input,
while another can only estimate the distribution subject to LDP requirements.
This extends the classical Shannon (wiretap) security setting to local
differential privacy. We provide (order-wise) tight characterizations of
privacy-utility-randomness trade-offs in several cases for distribution
estimation, including the standard LDP setting under a randomness constraint.
We also provide a non-trivial privacy mechanism for multi-level privacy.
Furthermore, we show that we cannot reuse random keys over time while
preserving privacy of each user.
- Abstract(参考訳): この研究は、ローカルディファレンシャルプライバシ(LDP)を達成するためにどの程度のランダム性が必要かという、新しい疑問を考察する。
モチベーションのあるシナリオは、複数のアナリストに、分散またはヘビーヒッター推定のために、\emph{same} (randomized) アウトプットを使用して、"em many level of privacy} を提供することである。
この設定を \emph{successive refinement of privacy}と呼び、異なるプライバシーレベルを持つ生データへの階層的アクセスを提供する。
例えば、同じランダム出力は、あるアナリストが入力を再構築できる可能性があり、別のアナリストは、ldp要件の対象となる分布のみを推定できる。
これにより、従来のShannon(wiretap)セキュリティ設定をローカル差分プライバシーに拡張する。
ランダム性制約の下での標準LDP設定を含む,分散推定のいくつかのケースにおいて,プライバシ・ユーティリティ・ランダム性トレードオフの(順序的に)厳密な特徴付けを行う。
マルチレベルプライバシのための非自明なプライバシメカニズムも提供しています。
さらに、各ユーザのプライバシーを維持しながら、ランダムキーを時間とともに再利用することはできないことを示す。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。