論文の概要: The Saddle-Point Accountant for Differential Privacy
- arxiv url: http://arxiv.org/abs/2208.09595v1
- Date: Sat, 20 Aug 2022 03:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:44:55.833022
- Title: The Saddle-Point Accountant for Differential Privacy
- Title(参考訳): 微分プライバシーのためのサドルポイント会計士
- Authors: Wael Alghamdi, Shahab Asoodeh, Flavio P. Calmon, Juan Felipe Gomez,
Oliver Kosut, Lalitha Sankar, Fei Wei
- Abstract要約: Sadle-point Accountant (SPA) は、差分プライバシー機構の構成に関するプライバシー保証を近似する。
近似誤差の上限と下限を導出することにより、厳密な性能保証を実現する。
SPAの重要な利点の1つは、プライバシメカニズムの$n$-foldコンポジションに対して一定の時間で実行されることである。
- 参考スコア(独自算出の注目度): 11.722117544598682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new differential privacy (DP) accountant called the
saddle-point accountant (SPA). SPA approximates privacy guarantees for the
composition of DP mechanisms in an accurate and fast manner. Our approach is
inspired by the saddle-point method -- a ubiquitous numerical technique in
statistics. We prove rigorous performance guarantees by deriving upper and
lower bounds for the approximation error offered by SPA. The crux of SPA is a
combination of large-deviation methods with central limit theorems, which we
derive via exponentially tilting the privacy loss random variables
corresponding to the DP mechanisms. One key advantage of SPA is that it runs in
constant time for the $n$-fold composition of a privacy mechanism. Numerical
experiments demonstrate that SPA achieves comparable accuracy to
state-of-the-art accounting methods with a faster runtime.
- Abstract(参考訳): サドルポイント会計士(SPA)と呼ばれる新たな差分プライバシー会計士を導入する。
SPAはDP機構の構成に関するプライバシー保証を正確かつ迅速に近似する。
本手法は,統計学におけるユビキタスな数値手法であるsaddle-point法に着想を得たものである。
SPAで提供される近似誤差の上限と下限を導出することにより、厳密な性能保証を実現する。
SPAのくちばしは、DP機構に対応するプライバシー損失確率変数を指数関数的に傾けることによって導出される中心極限定理と大偏差法の組み合わせである。
SPAの重要な利点の1つは、プライバシメカニズムの$n$-foldコンポジションに対して一定の時間で実行されることである。
数値実験により、SPAはより高速な実行で最先端の会計手法に匹敵する精度を達成できることが示された。
関連論文リスト
- Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition [13.192083588571384]
我々は、サブサンプルの差分秘密機構の構成に対する厳密なプライバシー保証の計算の問題を考える。
近年のアルゴリズムでは、プライバシーパラメータを任意の精度で数値計算できるが、慎重に適用する必要がある。
論文 参考訳(メタデータ) (2024-05-27T20:30:12Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence [7.807294944710216]
我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
論文 参考訳(メタデータ) (2021-02-02T02:18:12Z) - Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT [6.929834518749884]
離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
論文 参考訳(メタデータ) (2020-06-12T12:46:42Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。