論文の概要: Analytical Composition of Differential Privacy via the Edgeworth
Accountant
- arxiv url: http://arxiv.org/abs/2206.04236v1
- Date: Thu, 9 Jun 2022 02:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 03:38:35.117557
- Title: Analytical Composition of Differential Privacy via the Edgeworth
Accountant
- Title(参考訳): エッジワース会計士によるディファレンシャルプライバシの分析構成
- Authors: Hua Wang, Sheng Gao, Huanyu Zhang, Milan Shen, Weijie J. Su
- Abstract要約: プライベートアルゴリズムの差分プライバシー保証を構成するための分析的アプローチであるEdgeworth Accountantを導入する。
Edgeworth Accountantは、$f$差分プライバシーフレームワークを使用して構成されているプライバシー損失を損失なく追跡することから始める。
当社の上位と下位の$(epsilon, delta)$differential privacy boundsは、フェデレーション分析と特定の制度がプライベートディープラーニングモデルをトレーニングしていることを実証しています。
- 参考スコア(独自算出の注目度): 33.884945178942075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many modern machine learning algorithms are composed of simple private
algorithms; thus, an increasingly important problem is to efficiently compute
the overall privacy loss under composition. In this study, we introduce the
Edgeworth Accountant, an analytical approach to composing differential privacy
guarantees of private algorithms. The Edgeworth Accountant starts by losslessly
tracking the privacy loss under composition using the $f$-differential privacy
framework, which allows us to express the privacy guarantees using privacy-loss
log-likelihood ratios (PLLRs). As the name suggests, this accountant next uses
the Edgeworth expansion to the upper and lower bounds the probability
distribution of the sum of the PLLRs. Moreover, by relying on a technique for
approximating complex distributions using simple ones, we demonstrate that the
Edgeworth Accountant can be applied to the composition of any noise-addition
mechanism. Owing to certain appealing features of the Edgeworth expansion, the
$(\epsilon, \delta)$-differential privacy bounds offered by this accountant are
non-asymptotic, with essentially no extra computational cost, as opposed to the
prior approaches in, wherein the running times increase with the number of
compositions. Finally, we demonstrate that our upper and lower $(\epsilon,
\delta)$-differential privacy bounds are tight in federated analytics and
certain regimes of training private deep learning models.
- Abstract(参考訳): 多くの現代の機械学習アルゴリズムは単純なプライベートアルゴリズムで構成されているため、より重要な問題は構成下の全体的なプライバシー損失を効率的に計算することである。
本研究では,プライベートアルゴリズムの差分プライバシー保証を構成するための分析手法であるEdgeworth Accountantを紹介する。
Edgeworth Accountantは、$f$の差分プライバシーフレームワークを使用して構成中のプライバシ損失を損失なく追跡することから始まり、プライバシロスログ類似率(PLLR)を使用して、プライバシ保証を表現することができます。
名前が示すように、この会計士は次に、上と下の境界へのエッジワース展開を使い、PLLRの和の確率分布を推定する。
さらに, 複雑な分布を簡易に近似する手法に頼ることにより, エッジワース会計士が任意のノイズ付加機構の構成に適用可能であることを示す。
エッジワース拡大の魅力ある特徴により、この会計士によって提供される$(\epsilon, \delta)$-微分プライバシー境界は非漸近的であり、計算コストは、以前のアプローチとは異なり、構成数の増加とともに実行時間が増加する。
最後に、当社の上位と下位の$(\epsilon, \delta)$-differential privacy boundsが、フェデレーション分析とある種のプライベートディープラーニングモデルのトレーニング方法に密着していることを示します。
関連論文リスト
- Shifted Interpolation for Differential Privacy [6.1836947007564085]
雑音勾配降下とその変種は、微分プライベート機械学習の主要なアルゴリズムである。
本稿では、$f$差分プライバシの統一化フレームワークにおいて、"corollary によるプライバシ増幅" 現象を確立する。
これは、強力な凸最適化の基礎的な設定において、最初の正確なプライバシー分析につながる。
論文 参考訳(メタデータ) (2024-03-01T04:50:04Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT [6.929834518749884]
離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
論文 参考訳(メタデータ) (2020-06-12T12:46:42Z) - Sharp Composition Bounds for Gaussian Differential Privacy via Edgeworth
Expansion [30.680528052804664]
我々は、最近提案されたf差分プライバシーの枠組みにおいて、Edgeworth拡張を使用して構成された分析的および鋭いプライバシー境界のファミリーを紹介する。
これらの新たなバウンダリの優位性は、エラー解析と、プライベートディープニューラルネットワークのトレーニングに使用されるノイズ降下の全体的なプライバシー保証を定量化するアプリケーションによって確認される。
論文 参考訳(メタデータ) (2020-03-10T01:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。