論文の概要: Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms
- arxiv url: http://arxiv.org/abs/2204.06106v1
- Date: Tue, 12 Apr 2022 22:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 13:41:29.625391
- Title: Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms
- Title(参考訳): サンプルガウス機構の適応的構成のための最適メンバーシップ推定境界
- Authors: Saeed Mahloujifar, Alexandre Sablayrolles, Graham Cormode, Somesh Jha
- Abstract要約: トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
- 参考スコア(独自算出の注目度): 93.44378960676897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a trained model and a data sample, membership-inference (MI) attacks
predict whether the sample was in the model's training set. A common
countermeasure against MI attacks is to utilize differential privacy (DP)
during model training to mask the presence of individual examples. While this
use of DP is a principled approach to limit the efficacy of MI attacks, there
is a gap between the bounds provided by DP and the empirical performance of MI
attacks. In this paper, we derive bounds for the \textit{advantage} of an
adversary mounting a MI attack, and demonstrate tightness for the widely-used
Gaussian mechanism. We further show bounds on the \textit{confidence} of MI
attacks. Our bounds are much stronger than those obtained by DP analysis. For
example, analyzing a setting of DP-SGD with $\epsilon=4$ would obtain an upper
bound on the advantage of $\approx0.36$ based on our analyses, while getting
bound of $\approx 0.97$ using the analysis of previous work that convert
$\epsilon$ to membership inference bounds.
Finally, using our analysis, we provide MI metrics for models trained on
CIFAR10 dataset. To the best of our knowledge, our analysis provides the
state-of-the-art membership inference bounds for the privacy.
- Abstract(参考訳): トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
このDPの使用は、MI攻撃の有効性を制限するための原則的なアプローチであるが、DPが提供する境界とMI攻撃の実証的性能との間にはギャップがある。
本稿では,MI攻撃を施した敵の「textit{advantage}」のバウンダリを導出し,広く用いられているガウス機構の厳密性を示す。
さらに、mi攻撃の \textit{confidence} の境界を示す。
我々の限界はDP分析の結果よりもはるかに強い。
例えば、DP-SGD を $\epsilon=4$ で解析すると、我々の分析に基づいて $\approx0.36$ の利点の上限を得るが、$\approx 0.97$ の上限は $\epsilon$ をメンバシップ推論境界に変換する以前の研究の分析から得られる。
最後に、分析を用いて、CIFAR10データセットでトレーニングされたモデルに対してMIメトリクスを提供する。
私たちの知る限りでは、当社の分析はプライバシに関する最先端のメンバシップ推論を提供するものです。
関連論文リスト
- Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - Closed-Form Bounds for DP-SGD against Record-level Inference [18.85865832127335]
我々はDP-SGDアルゴリズムに焦点をあて、単純な閉形式境界を導出する。
我々は、最先端技術にマッチする会員推定のバウンダリを得る。
属性推論に対する新しいデータ依存型バウンダリを提案する。
論文 参考訳(メタデータ) (2024-02-22T09:26:16Z) - Gaussian Membership Inference Privacy [22.745970468274173]
我々は、$f$-Membership Inference Privacy(f$-MIP)という新しい実用的なプライバシー概念を提案する。
我々は、比例比に基づく勾配降下(SGD)に対する会員推測攻撃を理論的に分析することにより、$mu$-Gaussian Membership Inference Privacy(mu$-GMIP)と呼ばれる、$f$-MIPの家族を導出する。
論文 参考訳(メタデータ) (2023-06-12T17:57:05Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Bounding Membership Inference [28.64031194463754]
トレーニングアルゴリズムが$epsilon$-DPを提供する場合、MI敵の精度に縛られる。
提案方式では,MI 攻撃者の成功を制限するために,モデルのトレーニングを行う際に,より緩やかな DP 保証を利用することが可能である。
論文 参考訳(メタデータ) (2022-02-24T17:54:15Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Investigating Membership Inference Attacks under Data Dependencies [26.70764798408236]
プライバシーに敏感なデータに基づく機械学習モデルのトレーニングが、プライバシーに深刻な影響を及ぼす可能性のある新たな攻撃の扉を開いた。
そのような攻撃の1つは、メンバーシップ推論攻撃 (MIA) であり、特定のデータポイントがモデルをトレーニングするために使用されたかどうかを公開する。
我々は、訓練セットのすべてのメンバーと非メンバーが独立して同一に分散しているという制限的な仮定の下で、防衛を評価した。
論文 参考訳(メタデータ) (2020-10-23T00:16:46Z) - Multi-label Contrastive Predictive Coding [125.03510235962095]
差分相互情報(MI)推定器は、コントラスト予測符号化(CPC)のような教師なし表現学習法で広く利用されている。
本稿では,複数の正のサンプルを同時に同定する必要がある多ラベル分類問題に基づく新しい推定器を提案する。
同一量の負のサンプルを用いて複数ラベルのCPCが$log m$boundを超えることができる一方で、相互情報の有意な下限であることを示す。
論文 参考訳(メタデータ) (2020-07-20T02:46:21Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。