論文の概要: Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions
- arxiv url: http://arxiv.org/abs/2207.04380v1
- Date: Sun, 10 Jul 2022 04:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 16:22:46.624093
- Title: Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions
- Title(参考訳): ドットを接続する: プライバシー損失分布の厳密な離散近似
- Authors: Vadym Doroshenko and Badih Ghazi and Pritish Kamath and Ravi Kumar and
Pasin Manurangsi
- Abstract要約: PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
- 参考スコア(独自算出の注目度): 49.726408540784334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The privacy loss distribution (PLD) provides a tight characterization of the
privacy loss of a mechanism in the context of differential privacy (DP). Recent
work has shown that PLD-based accounting allows for tighter $(\varepsilon,
\delta)$-DP guarantees for many popular mechanisms compared to other known
methods. A key question in PLD-based accounting is how to approximate any
(potentially continuous) PLD with a PLD over any specified discrete support.
We present a novel approach to this problem. Our approach supports both
pessimistic estimation, which overestimates the hockey-stick divergence (i.e.,
$\delta$) for any value of $\varepsilon$, and optimistic estimation, which
underestimates the hockey-stick divergence. Moreover, we show that our
pessimistic estimate is the best possible among all pessimistic estimates.
Experimental evaluation shows that our approach can work with much larger
discretization intervals while keeping a similar error bound compared to
previous approaches and yet give a better approximation than existing methods.
- Abstract(参考訳): プライバシ損失分散(pld)は、差分プライバシ(dp)のコンテキストにおけるメカニズムのプライバシ損失の厳密な特徴を提供する。
最近の研究は、PLDベースの会計によって、他の既知の方法と比較して多くの一般的なメカニズムに対する$(\varepsilon, \delta)$-DP保証がより厳格になることを示している。
PLDベースの会計における重要な疑問は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
我々はこの問題に新しいアプローチを提示する。
我々のアプローチは、ホッケースティックの偏差(すなわち$\delta$)を$\varepsilon$の値で過大評価する悲観的推定と、ホッケースティックの偏差を過小評価する楽観的推定の両方をサポートする。
さらに,全ての悲観的評価において,我々の悲観的推定が最良であることを示す。
実験評価の結果,従来の手法に比べて誤差のバウンドを保ちつつ,より大きな離散化間隔で動作し,従来の手法よりもよい近似値が得られることがわかった。
関連論文リスト
- Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Beyond the Calibration Point: Mechanism Comparison in Differential Privacy [29.635987854560828]
差分プライベート(DP)機械学習では、DPメカニズムのプライバシー保証が報告され、単一の$(varepsilon, delta)$-pairに基づいて比較されることが多い。
このプラクティスは、DP保証が与えられた$(varepsilon, delta)$を共有するメカニズムの間でも大きく異なる可能性があることを見落としている。
論文 参考訳(メタデータ) (2024-06-13T08:30:29Z) - Fixed-Budget Differentially Private Best Arm Identification [62.36929749450298]
差分プライバシー制約下における固定予算制度における線形包帯のベストアーム識別(BAI)について検討した。
誤差確率に基づいてミニマックス下限を導出し、下限と上限が指数関数的に$T$で崩壊することを示した。
論文 参考訳(メタデータ) (2024-01-17T09:23:25Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Robust computation of optimal transport by $\beta$-potential
regularization [79.24513412588745]
最適輸送(OT)は、確率分布間の差を測定する機械学習分野で広く使われているツールである。
我々は、いわゆる$beta$-divergenceに付随するベータポテンシャル項でOTを正規化することを提案する。
提案アルゴリズムで計算した輸送行列は,外乱が存在する場合でも確率分布を頑健に推定するのに役立つことを実験的に実証した。
論文 参考訳(メタデータ) (2022-12-26T18:37:28Z) - On the Pitfalls of Heteroscedastic Uncertainty Estimation with
Probabilistic Neural Networks [23.502721524477444]
このアプローチがいかにして非常に貧弱だが安定な推定に繋がるかを示す合成例を示す。
問題を悪化させる特定の条件とともに、犯人をログライクな損失とみなす。
我々は、損失に対する各データポイントの寄与を、$beta$-exponentiated variance estimateによって重み付けする、$beta$-NLLと呼ばれる別の定式化を提案する。
論文 参考訳(メタデータ) (2022-03-17T08:46:17Z) - Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence [7.807294944710216]
我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
論文 参考訳(メタデータ) (2021-02-02T02:18:12Z) - CoinDICE: Off-Policy Confidence Interval Estimation [107.86876722777535]
強化学習における高信頼行動非依存のオフ政治評価について検討する。
様々なベンチマークにおいて、信頼区間推定が既存の手法よりも厳密で精度が高いことが示されている。
論文 参考訳(メタデータ) (2020-10-22T12:39:11Z) - Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT [6.929834518749884]
離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
論文 参考訳(メタデータ) (2020-06-12T12:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。