論文の概要: Computing Differential Privacy Guarantees for Heterogeneous Compositions
Using FFT
- arxiv url: http://arxiv.org/abs/2102.12412v1
- Date: Wed, 24 Feb 2021 17:05:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 19:35:02.154124
- Title: Computing Differential Privacy Guarantees for Heterogeneous Compositions
Using FFT
- Title(参考訳): FFTを用いた不均質成分の差分プライバシー保証
- Authors: Antti Koskela and Antti Honkela
- Abstract要約: プレ計算とメモリ使用量の増加を犠牲にして,Plancherel定理を用いて厳密なプライバシ保証を評価する方法を示す。
また、プリコンピューティングとメモリ使用量の増加のコストでPlancherel定理を使用して厳しいプライバシー保証の評価をスピードアップする方法も示します。
- 参考スコア(独自算出の注目度): 5.837881923712393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recently proposed Fast Fourier Transform (FFT)-based accountant for
evaluating $(\varepsilon,\delta)$-differential privacy guarantees using the
privacy loss distribution formalism has been shown to give tighter bounds than
commonly used methods such as R\'enyi accountants when applied to compositions
of homogeneous mechanisms. This approach is also applicable to certain discrete
mechanisms that cannot be analysed with R\'enyi accountants. In this paper, we
extend this approach to compositions of heterogeneous mechanisms. We carry out
a full error analysis that allows choosing the parameters of the algorithm such
that a desired accuracy is obtained. Using our analysis, we also give a bound
for the computational complexity in terms of the error which is analogous to
and slightly tightens the one given by Murtagh and Vadhan (2018). We also show
how to speed up the evaluation of tight privacy guarantees using the Plancherel
theorem at the cost of increased pre-computation and memory usage.
- Abstract(参考訳): 最近提案されたFast Fourier Transform (FFT)ベースの会計士は、(\varepsilon,\delta)$-differential privacy guarantees for the privacy loss distribution formalismを用いて、均質なメカニズムの合成に適用した場合に、R'enyi accountantsのような一般的な方法よりも厳密な境界を与えることを示した。
このアプローチは、R\'enyi 会計士では解析できない特定の離散機構にも適用できる。
本稿では,このアプローチを不均一な機構の構成にも拡張する。
所望の精度が得られるようにアルゴリズムのパラメータを選択することができる完全誤差解析を行う。
この解析により、MurtaghとVadhan(2018)が与えたエラーと類似し、わずかにきつく締まるエラーの観点から、計算の複雑さにも限界を与えています。
また、プリコンピューティングとメモリ使用量の増加のコストでPlancherel定理を使用して厳しいプライバシー保証の評価をスピードアップする方法も示します。
関連論文リスト
- Instance-Specific Asymmetric Sensitivity in Differential Privacy [2.855485723554975]
我々は指数的メカニズムを通して出力を選択するためのパラダイムを提供する以前の作業の上に構築する。
我々のフレームワークは、近接度メートル法をわずかに修正し、スパースベクトル技法の単純かつ効率的な応用を提供する。
論文 参考訳(メタデータ) (2023-11-02T05:01:45Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Nonparametric extensions of randomized response for private confidence sets [51.75485869914048]
本研究は,局所的差分プライバシー(LDP)の制約の下で,集団平均の非パラメトリック,非漸近的統計的推測を行う手法を導出する。
民営化データへのアクセスのみを与えられた場合、$mustar$に対して信頼区間(CI)と時間一様信頼シーケンス(CS)を提示する。
論文 参考訳(メタデータ) (2022-02-17T16:04:49Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Sigma-Delta and Distributed Noise-Shaping Quantization Methods for
Random Fourier Features [73.25551965751603]
我々は、量子化 RFF が基礎となるカーネルの高精度な近似を可能にすることを証明した。
量子化 RFF はさらに圧縮され,メモリ使用量と精度のトレードオフに優れることを示す。
本手法は,この文脈におけるアート量子化手法の他の状態と比較し,いくつかの機械学習タスクにおいて,提案手法の性能を実証的に示す。
論文 参考訳(メタデータ) (2021-06-04T17:24:47Z) - Adversarial Robustness Guarantees for Gaussian Processes [22.403365399119107]
ガウス過程(GP)は、モデルの不確実性の原理的計算を可能にし、安全性に重要なアプリケーションに魅力的です。
境界付き摂動に対するモデル決定の不変性として定義されるGPの対向的堅牢性を分析するためのフレームワークを提案する。
我々は境界を洗練し、任意の$epsilon > 0$に対して、我々のアルゴリズムが有限個の反復で実際の値に$epsilon$-closeの値に収束することを保証していることを示す分岐とバウンドのスキームを開発する。
論文 参考訳(メタデータ) (2021-04-07T15:14:56Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT [6.929834518749884]
離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
論文 参考訳(メタデータ) (2020-06-12T12:46:42Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。