論文の概要: Approximation of Pufferfish Privacy for Gaussian Priors
- arxiv url: http://arxiv.org/abs/2401.12391v2
- Date: Mon, 6 May 2024 22:07:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 19:44:23.418592
- Title: Approximation of Pufferfish Privacy for Gaussian Priors
- Title(参考訳): ガウス前駆体に対するフグのプライバシの近似
- Authors: Ni Ding,
- Abstract要約: また,各識別シークレットペアに設定されたガウス分布の平均と分散の差に,付加的なラプラスノイズが校正された場合,$(epsilon, delta)$-pufferfishのプライバシが達成されることを示す。
典型的なアプリケーションは、和(または平均)クエリのプライベートリリースである。
- 参考スコア(独自算出の注目度): 6.2584995033090625
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper studies how to approximate pufferfish privacy when the adversary's prior belief of the published data is Gaussian distributed. Using Monge's optimal transport plan, we show that $(\epsilon, \delta)$-pufferfish privacy is attained if the additive Laplace noise is calibrated to the differences in mean and variance of the Gaussian distributions conditioned on every discriminative secret pair. A typical application is the private release of the summation (or average) query, for which sufficient conditions are derived for approximating $\epsilon$-statistical indistinguishability in individual's sensitive data. The result is then extended to arbitrary prior beliefs trained by Gaussian mixture models (GMMs): calibrating Laplace noise to a convex combination of differences in mean and variance between Gaussian components attains $(\epsilon,\delta)$-pufferfish privacy.
- Abstract(参考訳): 本稿では,パワラマガエルのプライバシを,パワラマガエルがパワラマガエルのパワラマガエルのパワラマガエルのプライバシを推定する方法について検討する。
Mongeの最適輸送計画を用いて、各識別秘密対に条件付けられたガウス分布の平均と分散の差に付加的なLaplaceノイズを校正した場合、$(\epsilon, \delta)$-pufferfishのプライバシーが達成されることを示す。
典型的なアプリケーションは和(平均)クエリのプライベートリリースであり、個々の機密データにおいて$\epsilon$-statistical indistinguishabilityを近似するのに十分な条件が導出される。
その結果は、ガウス混合モデル(GMM)によって訓練された任意の事前信念に拡張される: 平均とガウス成分間の差異の凸結合にラプラスノイズを校正すると、プライバシが$(\epsilon,\delta)$-pufferfishに達する。
関連論文リスト
- Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Unified Enhancement of Privacy Bounds for Mixture Mechanisms via
$f$-Differential Privacy [41.51051636162107]
本稿では、シャッフルモデルと1点差分勾配勾配のプライバシー境界の改善に焦点をあてる。
シャッフルモデルに対するトレードオフ関数のクローズドフォーム式を導出し、最新の結果よりも優れる。
また, ホッケースティックの進行した関節凸性の$f$-DPアナログを, $(epsilon,delta)$-DPに関連するホッケースティックのばらつきについて検討した。
論文 参考訳(メタデータ) (2023-10-30T19:37:51Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Infinitely Divisible Noise in the Low Privacy Regime [9.39772079241093]
ユーザ間でデータを分散し、共有しないフェデレーション学習は、プライバシ保護機械学習に対する一般的なアプローチとして現れている。
実数値データに対して、最初の可除な無限ノイズ分布を提示し、$varepsilon$-differential privacyを実現する。
論文 参考訳(メタデータ) (2021-10-13T08:16:43Z) - Differential Privacy of Dirichlet Posterior Sampling [0.0]
ディリクレ後部分布から1枚のドローを放出する固有のプライバシーについて検討する。
トランカットされた集中微分プライバシー(tCDP)の概念により、ディリクレ後方サンプリングの単純なプライバシー保証を導き出すことができる。
論文 参考訳(メタデータ) (2021-10-03T07:41:19Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Fisher information under local differential privacy [5.582101184758529]
統計サンプルから得られたフィッシャー情報は、局所的な差分プライバシー制約の下でプライバシーパラメータ$varepsilon$でどのようにスケールできるかを示す。
さらに、これらの不等式をBernoulliモデルのスパースに適用し、プライバシメカニズムと推定器をオーダーマッチングの$ell2$エラーで示す。
論文 参考訳(メタデータ) (2020-05-21T17:05:09Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。