論文の概要: Bounding Membership Inference
- arxiv url: http://arxiv.org/abs/2202.12232v1
- Date: Thu, 24 Feb 2022 17:54:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:46:40.024604
- Title: Bounding Membership Inference
- Title(参考訳): バウンディングメンバーシップ推論
- Authors: Anvith Thudi, Ilia Shumailov, Franziska Boenisch, Nicolas Papernot
- Abstract要約: トレーニングアルゴリズムが$epsilon$-DPを提供する場合、MI敵の精度に縛られる。
提案方式では,MI 攻撃者の成功を制限するために,モデルのトレーニングを行う際に,より緩やかな DP 保証を利用することが可能である。
- 参考スコア(独自算出の注目度): 28.64031194463754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential Privacy (DP) is the de facto standard for reasoning about the
privacy guarantees of a training algorithm. Despite the empirical observation
that DP reduces the vulnerability of models to existing membership inference
(MI) attacks, a theoretical underpinning as to why this is the case is largely
missing in the literature. In practice, this means that models need to be
trained with DP guarantees that greatly decrease their accuracy. In this paper,
we provide a tighter bound on the accuracy of any MI adversary when a training
algorithm provides $\epsilon$-DP. Our bound informs the design of a novel
privacy amplification scheme, where an effective training set is sub-sampled
from a larger set prior to the beginning of training, to greatly reduce the
bound on MI accuracy. As a result, our scheme enables $\epsilon$-DP users to
employ looser DP guarantees when training their model to limit the success of
any MI adversary; this ensures that the model's accuracy is less impacted by
the privacy guarantee. Finally, we discuss implications of our MI bound on the
field of machine unlearning.
- Abstract(参考訳): 差分プライバシー(DP)は、トレーニングアルゴリズムのプライバシー保証について推論するデファクトスタンダードである。
DPが既存のメンバーシップ推論(MI)攻撃に対するモデルの脆弱性を減少させるという実証的な観察にもかかわらず、なぜこのことが文献にほとんど見当たらないのかという理論的根拠がある。
実際には、モデルがdpでトレーニングされる必要があるため、精度が大幅に低下する。
本稿では、トレーニングアルゴリズムが$\epsilon$-dpを提供する場合、任意のmi敵の精度により厳密なバインドを提供する。
我々の限界は、トレーニング開始前のより大きなセットから効果的なトレーニングセットをサブサンプリングする、新しいプライバシアンプリフィケーション・アンプリフィケーション・スキームの設計を通知し、MI精度の限界を大幅に低減する。
その結果,提案方式では,MI 攻撃者の成功を制限するためにモデルをトレーニングする際に,よりゆるやかな DP 保証を採用することが可能となり,それによってモデルの精度がプライバシー保証の影響を受けにくくなった。
最後に,機械学習の分野におけるmiの影響について考察する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Overconfidence is a Dangerous Thing: Mitigating Membership Inference
Attacks by Enforcing Less Confident Prediction [2.2336243882030025]
機械学習モデルは、メンバシップ推論攻撃(MIA)に対して脆弱である
この研究は、強力なメンバーシップのプライバシと高い精度の両方を、余分なデータを必要とすることなく達成できる防衛技術であるHAMPを提案する。
論文 参考訳(メタデータ) (2023-07-04T09:50:33Z) - Discriminative Adversarial Privacy: Balancing Accuracy and Membership
Privacy in Neural Networks [7.0895962209555465]
DAP(Dariminative Adversarial Privacy)は、モデルの性能、速度、プライバシのバランスを達成するために設計された学習技術である。
DAPは、MIAの誤差を最大化しながら予測誤差を最小化できる新しい損失関数に基づく敵の訓練に依存している。
さらに、パフォーマンスプライバシのトレードオフを捉えるために、AOP(Acuracy Over Privacy)と呼ばれる新しいメトリクスを紹介します。
論文 参考訳(メタデータ) (2023-06-05T17:25:45Z) - Provable Membership Inference Privacy [31.08016816475564]
差別化プライバシ(DP)は、証明可能なプライバシの標準標準のひとつとして登場した。
本稿では,これらの課題に対処するために,新たなプライバシー概念である会員推測プライバシ(MIP)を提案する。
MIP は DP の保証に要する量よりもランダム性の少ない量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-11-12T06:13:00Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - Federated Learning with Sparsified Model Perturbation: Improving
Accuracy under Client-Level Differential Privacy [27.243322019117144]
フェデレートラーニング(FL)は、分散クライアントが共同で共有統計モデルを学ぶことを可能にする。
トレーニングデータに関するセンシティブな情報は、FLで共有されたモデル更新から推測することができる。
差別化プライバシ(DP)は、これらの攻撃を防御するための最先端技術である。
本稿では,モデル精度を維持しつつ,クライアントレベルのDP保証を実現する新しいFLスキームであるFed-SMPを開発した。
論文 参考訳(メタデータ) (2022-02-15T04:05:42Z) - DP-InstaHide: Provably Defusing Poisoning and Backdoor Attacks with
Differentially Private Data Augmentations [54.960853673256]
混合や無作為な付加ノイズなどの強いデータ拡張は、わずかな精度のトレードオフに耐えながら、毒の攻撃を無効にする。
DP-InstaHideの厳密な分析によると、ミキサップは確かにプライバシー上の利点があり、kウェイミキサップによるトレーニングは、単純DPメカニズムよりも少なくともk倍強いDP保証が得られる。
論文 参考訳(メタデータ) (2021-03-02T23:07:31Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。