論文の概要: Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence
- arxiv url: http://arxiv.org/abs/2102.01258v1
- Date: Tue, 2 Feb 2021 02:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 20:25:35.656180
- Title: Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence
- Title(参考訳): 局所差分プライバシーは$E_\gamma$-Divergenceの収縮と同等である
- Authors: Shahab Asoodeh, Maryam Aliakbarpour, and Flavio P. Calmon
- Abstract要約: 我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
- 参考スコア(独自算出の注目度): 7.807294944710216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the local differential privacy (LDP) guarantees of a
randomized privacy mechanism via its contraction properties. We first show that
LDP constraints can be equivalently cast in terms of the contraction
coefficient of the $E_\gamma$-divergence. We then use this equivalent formula
to express LDP guarantees of privacy mechanisms in terms of contraction
coefficients of arbitrary $f$-divergences. When combined with standard
estimation-theoretic tools (such as Le Cam's and Fano's converse methods), this
result allows us to study the trade-off between privacy and utility in several
testing and minimax and Bayesian estimation problems.
- Abstract(参考訳): ランダム化プライバシーメカニズムの局所差分プライバシー(LDP)保証について,その収縮特性を用いて検討する。
まず, LDP 制約は $E_\gamma$-divergence の収縮係数で等価にキャストできることを示した。
次に、この等価な式を使用して、任意の $f$-divergences の収縮係数の点でプライバシーメカニズムの LDP 保証を表現する。
標準的な推定理論ツール(例えばル・カムやファノの逆手法)と組み合わせると、この結果はいくつかのテストにおいてプライバシーとユーティリティの間のトレードオフとミニマックスとベイズ推定問題を調べることができる。
関連論文リスト
- Unified Enhancement of Privacy Bounds for Mixture Mechanisms via
$f$-Differential Privacy [41.51051636162107]
本稿では、シャッフルモデルと1点差分勾配勾配のプライバシー境界の改善に焦点をあてる。
シャッフルモデルに対するトレードオフ関数のクローズドフォーム式を導出し、最新の結果よりも優れる。
また, ホッケースティックの進行した関節凸性の$f$-DPアナログを, $(epsilon,delta)$-DPに関連するホッケースティックのばらつきについて検討した。
論文 参考訳(メタデータ) (2023-10-30T19:37:51Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - On the Statistical Complexity of Estimation and Testing under Privacy
Constraints [0.0]
差分プライバシー下での分散テストのパワーを特徴付けることは、輸送問題を解くことで実現できることを示す。
問題クラスは,プライバシによる実用性低下の証明に非常に重要であることを示す。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Nonparametric extensions of randomized response for private confidence
sets [60.51215940742933]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Locally Differentially Private Bayesian Inference [23.882144188177275]
ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-27T13:36:43Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。