論文の概要: Fisher information under local differential privacy
- arxiv url: http://arxiv.org/abs/2005.10783v1
- Date: Thu, 21 May 2020 17:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 00:05:58.377522
- Title: Fisher information under local differential privacy
- Title(参考訳): 地域差分プライバシー下における漁業情報
- Authors: Leighton Pate Barnes, Wei-Ning Chen, and Ayfer Ozgur
- Abstract要約: 統計サンプルから得られたフィッシャー情報は、局所的な差分プライバシー制約の下でプライバシーパラメータ$varepsilon$でどのようにスケールできるかを示す。
さらに、これらの不等式をBernoulliモデルのスパースに適用し、プライバシメカニズムと推定器をオーダーマッチングの$ell2$エラーで示す。
- 参考スコア(独自算出の注目度): 5.582101184758529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop data processing inequalities that describe how Fisher information
from statistical samples can scale with the privacy parameter $\varepsilon$
under local differential privacy constraints. These bounds are valid under
general conditions on the distribution of the score of the statistical model,
and they elucidate under which conditions the dependence on $\varepsilon$ is
linear, quadratic, or exponential. We show how these inequalities imply order
optimal lower bounds for private estimation for both the Gaussian location
model and discrete distribution estimation for all levels of privacy
$\varepsilon>0$. We further apply these inequalities to sparse Bernoulli models
and demonstrate privacy mechanisms and estimators with order-matching squared
$\ell^2$ error.
- Abstract(参考訳): 我々は,統計サンプルからのフィッシャー情報が,局所的微分プライバシー制約下でのプライバシパラメータ$\varepsilon$でどのようにスケールできるかを記述するデータ処理不等式を開発した。
これらの境界は、統計モデルのスコアの分布に関する一般的な条件の下で有効であり、$\varepsilon$への依存が線型、二次、指数的である条件を解明する。
これらの不等式が、ガウス的位置モデルと全てのプライバシーレベルにおける離散分布推定の両方に対して最適な下限を導くことを示す。
さらに、これらの不等式をsparse bernoulliモデルに適用し、オーダーマッチの2乗の$\ell^2$エラーを持つプライバシメカニズムと推定子を示します。
関連論文リスト
- Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Approximation of Pufferfish Privacy for Gaussian Priors [6.2584995033090625]
また,各識別シークレットペアに設定されたガウス分布の平均と分散の差に,付加的なラプラスノイズが校正された場合,$(epsilon, delta)$-pufferfishのプライバシが達成されることを示す。
典型的なアプリケーションは、和(または平均)クエリのプライベートリリースである。
論文 参考訳(メタデータ) (2024-01-22T22:43:38Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Differentially Private Sampling from Distributions [1.452875650827562]
一部の体制では、プライベートサンプリングは非プライベートに$P$の記述を学ぶよりも少ない観察を必要とする。
分布のクラスによっては,非私的学習と比較して,私的学習に必要な観測回数のオーバーヘッドは,私的サンプリングに必要な観測回数によって完全に把握される。
論文 参考訳(メタデータ) (2022-11-15T14:56:42Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response [6.260747047974035]
ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
論文 参考訳(メタデータ) (2022-05-18T10:44:28Z) - New Lower Bounds for Private Estimation and a Generalized Fingerprinting
Lemma [10.176795938619417]
統計的推定タスクの新たな下限を$(varepsilon, delta)$-differential privacyの制約の下で証明する。
フロベニウスノルムの推定には$Omega(d2)$サンプルが必要であり、スペクトルノルムでは$Omega(d3/2)$サンプルが必要である。
論文 参考訳(メタデータ) (2022-05-17T17:55:10Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。