論文の概要: Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens
- arxiv url: http://arxiv.org/abs/2210.13028v1
- Date: Mon, 24 Oct 2022 08:24:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:19:30.911211
- Title: Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens
- Title(参考訳): ディファレンシャル・プライバシ・レンズを用いた一般確率比テスト
- Authors: Georgios Kaissis, Alexander Ziller, Stefan Kolek Martinez de Azagra,
Daniel Rueckert
- Abstract要約: 微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
- 参考スコア(独自算出の注目度): 69.10072367807095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential Privacy (DP) provides tight upper bounds on the capabilities of
optimal adversaries, but such adversaries are rarely encountered in practice.
Under the hypothesis testing/membership inference interpretation of DP, we
examine the Gaussian mechanism and relax the usual assumption of a
Neyman-Pearson-Optimal (NPO) adversary to a Generalized Likelihood Test (GLRT)
adversary. This mild relaxation leads to improved privacy guarantees, which we
express in the spirit of Gaussian DP and $(\varepsilon, \delta)$-DP, including
composition and sub-sampling results. We evaluate our results numerically and
find them to match the theoretical upper bounds.
- Abstract(参考訳): 差別化プライバシ(DP)は最適な敵の能力に厳格な上限を与えるが、そのような敵が実際に遭遇することは稀である。
DPの仮説テスト/メンバーシップ推論の解釈では、ガウスのメカニズムを検証し、一般的なNPO(Neyman-Pearson-Optimal)とGLRT(Generalized Likelihood Test)の対立の仮定を緩和する。
この緩やかな緩和によりプライバシー保証が改善され、ガウシアンDPと$(\varepsilon, \delta)$-DPの精神を表現し、合成結果とサブサンプリング結果を含む。
実験結果を数値的に評価し,理論上界に合致する結果を得た。
関連論文リスト
- Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - Convergent Privacy Loss of Noisy-SGD without Convexity and Smoothness [16.303040664382138]
有界領域上の隠れ状態雑音-SGDアルゴリズムの差分プライバシー(DP)保証について検討する。
我々は非滑らかな非滑らかな損失に対して収束R'enyi DPを証明した。
我々はまた、滑らかな凸損失に対する最先端の結果と比較して、厳格に優れたプライバシー境界を提供する。
論文 参考訳(メタデータ) (2024-10-01T20:52:08Z) - Ensembled Prediction Intervals for Causal Outcomes Under Hidden
Confounding [49.1865229301561]
本稿では,既存の因果感受性モデルを用いた部分同定手法を提案し,Caus-Modensがより厳密な結果区間を与えることを示す。
3つの異なるベンチマークのうち最後のものは、未知だが探究可能な基底真理を持つ観測実験にGPT-4を新たに使用することである。
論文 参考訳(メタデータ) (2023-06-15T21:42:40Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Generalized Likelihood Ratio Test for Adversarially Robust Hypothesis
Testing [22.93223530210401]
我々は、このような敵の摂動に対する防御についての洞察を深めるために、古典的な仮説テスト問題を考える。
一般化確率比検定(GLRT)を複合仮説検定問題に適用した防衛法を提案する。
シミュレーションにより、GLRT防御は、最悪の場合の攻撃下でのミニマックスアプローチと競合する一方で、弱い攻撃下でのより正確なトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-04T01:11:54Z) - A unified interpretation of the Gaussian mechanism for differential
privacy through the sensitivity index [61.675604648670095]
GMの一般的な3つの解釈、すなわち$(varepsilon, delta)$-DP, f-DP, R'enyi DPは1つのパラメータ$psi$で表現できる。
$psi$は、クエリの感度とノイズ摂動の大きさの2つの基本量をカプセル化することによって、GMとその特性を特徴付ける。
論文 参考訳(メタデータ) (2021-09-22T06:20:01Z) - Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence [7.807294944710216]
我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
論文 参考訳(メタデータ) (2021-02-02T02:18:12Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。