論文の概要: Nearly Tight Black-Box Auditing of Differentially Private Machine Learning
- arxiv url: http://arxiv.org/abs/2405.14106v1
- Date: Thu, 23 May 2024 02:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:24:51.721015
- Title: Nearly Tight Black-Box Auditing of Differentially Private Machine Learning
- Title(参考訳): 差分プライベート機械学習における近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近
- Authors: Meenatchi Sundaram Muthu Selva Annamalai, Emiliano De Cristofaro,
- Abstract要約: 本稿では,ブラックボックスモデルにおけるDP-SGDアルゴリズムについて,ほぼ厳密な検証を行った。
本手法は,DP-SGDからのプライバシー漏洩を,メンバーシップ推論攻撃を用いて実証的に推定する。
- 参考スコア(独自算出の注目度): 10.305660258428993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a nearly tight audit of the Differentially Private Stochastic Gradient Descent (DP-SGD) algorithm in the black-box model. Our auditing procedure empirically estimates the privacy leakage from DP-SGD using membership inference attacks; unlike prior work, the estimates are appreciably close to the theoretical DP bounds. The main intuition is to craft worst-case initial model parameters, as DP-SGD's privacy analysis is agnostic to the choice of the initial model parameters. For models trained with theoretical $\varepsilon=10.0$ on MNIST and CIFAR-10, our auditing procedure yields empirical estimates of $7.21$ and $6.95$, respectively, on 1,000-record samples and $6.48$ and $4.96$ on the full datasets. By contrast, previous work achieved tight audits only in stronger (i.e., less realistic) white-box models that allow the adversary to access the model's inner parameters and insert arbitrary gradients. Our auditing procedure can be used to detect bugs and DP violations more easily and offers valuable insight into how the privacy analysis of DP-SGD can be further improved.
- Abstract(参考訳): 本稿では,ブラックボックスモデルにおけるDP-SGDアルゴリズムについて,ほぼ厳密な検証を行った。
本研究は,DP-SGDのプライバシー漏洩を会員推測攻撃を用いて実証的に推定する手法である。
DP-SGDのプライバシ分析は、初期モデルパラメータの選択に非依存であるからである。
理論的な$\varepsilon=10.0$ on MNISTとCIFAR-10で訓練されたモデルの場合、監査手順は1,000レコードサンプルに対してそれぞれ7.21$と6.95$、全データセットで6.48$と4.96$という経験的な見積もりを得る。
対照的に、以前の研究はより強い(非現実的な)ホワイトボックスモデルでのみ厳密な監査を達成し、敵がモデルの内的パラメータにアクセスし、任意の勾配を挿入できるようにした。
本研究は,DP-SGDのプライバシー解析をさらに改善する方法について,より容易にバグやDP違反の検出に利用することができる。
関連論文リスト
- Private Fine-tuning of Large Language Models with Zeroth-order
Optimization [54.24600476755372]
DP-ZO(DP-ZO)は、ゼロオーダー最適化を民営化し、トレーニングデータのプライバシを保存する、大規模言語モデルを微調整する新しい手法である。
DP-ZOは、SQuADから1000のトレーニングサンプルにOPT-66Bを微調整すると、プライバシが1,10-5)$-DPになるため、わずか1.86%のパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - Gaussian Membership Inference Privacy [22.745970468274173]
我々は、$f$-Membership Inference Privacy(f$-MIP)という新しい実用的なプライバシー概念を提案する。
我々は、比例比に基づく勾配降下(SGD)に対する会員推測攻撃を理論的に分析することにより、$mu$-Gaussian Membership Inference Privacy(mu$-GMIP)と呼ばれる、$f$-MIPの家族を導出する。
論文 参考訳(メタデータ) (2023-06-12T17:57:05Z) - Differentially Private Deep Learning with ModelMix [14.445182641912014]
そこで本研究では,中間モデル状態のランダムアグリゲーションを行う, Em ModelMix と呼ばれる汎用最適化フレームワークを提案する。
トレーニング軌跡のエントロピーを利用した複合プライバシー分析を強化する。
本研究は,勾配クリッピングの効果に関する公式な研究である。
論文 参考訳(メタデータ) (2022-10-07T22:59:00Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。