論文の概要: Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT
- arxiv url: http://arxiv.org/abs/2006.07134v3
- Date: Mon, 21 Jun 2021 11:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:44:56.958966
- Title: Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT
- Title(参考訳): FFTを用いた離散値機構とサブサンプリングガウス機構の高次差分プライバシー
- Authors: Antti Koskela, Joonas J\"alk\"o, Lukas Prediger and Antti Honkela
- Abstract要約: 離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
- 参考スコア(独自算出の注目度): 6.929834518749884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a numerical accountant for evaluating the tight
$(\varepsilon,\delta)$-privacy loss for algorithms with discrete one
dimensional output. The method is based on the privacy loss distribution
formalism and it uses the recently introduced fast Fourier transform based
accounting technique. We carry out an error analysis of the method in terms of
moment bounds of the privacy loss distribution which leads to rigorous lower
and upper bounds for the true $(\varepsilon,\delta)$-values. As an application,
we present a novel approach to accurate privacy accounting of the subsampled
Gaussian mechanism. This completes the previously proposed analysis by giving
strict lower and upper bounds for the privacy parameters. We demonstrate the
performance of the accountant on the binomial mechanism and show that our
approach allows decreasing noise variance up to 75 percent at equal privacy
compared to existing bounds in the literature. We also illustrate how to
compute tight bounds for the exponential mechanism applied to counting queries.
- Abstract(参考訳): 離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(\varepsilon,\delta)$-privacy lossを評価する数値会計士を提案する。
本手法は,プライバシ損失分布の形式化に基づいており,最近導入された高速フーリエ変換に基づく会計手法を用いている。
我々は、真の$(\varepsilon,\delta)$-valuesに対して厳密な下限と上限をもたらすプライバシ損失分布のモーメント境界の観点から、この方法の誤り解析を行う。
アプリケーションとして,サブサンプリングされたガウス機構の正確なプライバシ会計手法を提案する。
これにより、プライバシパラメータの厳格な下限と上限を与えることで、前述の分析が完了する。
そこで本研究では,二項機構による会計士の性能を実証し,提案手法により,従来と同等のプライバシーで75%までノイズ分散を低減できることを示す。
また,クエリのカウントに適用される指数関数的メカニズムの厳密な境界を計算する方法を示す。
関連論文リスト
- Fixed-Budget Differentially Private Best Arm Identification [62.36929749450298]
差分プライバシー制約下における固定予算制度における線形包帯のベストアーム識別(BAI)について検討した。
誤差確率に基づいてミニマックス下限を導出し、下限と上限が指数関数的に$T$で崩壊することを示した。
論文 参考訳(メタデータ) (2024-01-17T09:23:25Z) - Unified Enhancement of Privacy Bounds for Mixture Mechanisms via
$f$-Differential Privacy [41.51051636162107]
本稿では、シャッフルモデルと1点差分勾配勾配のプライバシー境界の改善に焦点をあてる。
シャッフルモデルに対するトレードオフ関数のクローズドフォーム式を導出し、最新の結果よりも優れる。
また, ホッケースティックの進行した関節凸性の$f$-DPアナログを, $(epsilon,delta)$-DPに関連するホッケースティックのばらつきについて検討した。
論文 参考訳(メタデータ) (2023-10-30T19:37:51Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - The Poisson binomial mechanism for secure and private federated learning [19.399122892615573]
本稿では,分散平均推定(DME)のための離散的差分プライバシー機構を導入し,フェデレーション学習と分析に応用する。
我々は、プライバシー保証の厳密な分析を行い、連続的なガウス機構と同じプライバシーと精度のトレードオフを達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T05:46:28Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - Oneshot Differentially Private Top-k Selection [23.88111547236874]
我々は、トップ$k$問題の高速、低歪み、および微分プライベートプリミティブを紹介します。
文献の既存手法と比較して、我々のアルゴリズムはカウントにLaplaceノイズを加え、上位の$k$ノイズ数とその推定値を一括してリリースする。
論文 参考訳(メタデータ) (2021-05-18T02:18:01Z) - Computing Differential Privacy Guarantees for Heterogeneous Compositions
Using FFT [5.837881923712393]
プレ計算とメモリ使用量の増加を犠牲にして,Plancherel定理を用いて厳密なプライバシ保証を評価する方法を示す。
また、プリコンピューティングとメモリ使用量の増加のコストでPlancherel定理を使用して厳しいプライバシー保証の評価をスピードアップする方法も示します。
論文 参考訳(メタデータ) (2021-02-24T17:05:38Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。