論文の概要: Black Box Differential Privacy Auditing Using Total Variation Distance
- arxiv url: http://arxiv.org/abs/2406.04827v2
- Date: Fri, 5 Jul 2024 21:38:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 01:20:00.707700
- Title: Black Box Differential Privacy Auditing Using Total Variation Distance
- Title(参考訳): 全変動距離を用いたブラックボックスの識別プライバシー監査
- Authors: Antti Koskela, Jafar Mohammadi,
- Abstract要約: 本稿では,機械学習モデルにおける差分プライバシ保証を,小さなホールドアウトデータセットを用いて評価する実践的手法を提案する。
本手法は,トレーニングデータのサブセットとホールドアウトデータセットを用いて得られたスコア間の総変動(TV)距離を推定する。
- 参考スコア(独自算出の注目度): 3.830092569453011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a practical method to audit the differential privacy (DP) guarantees of a machine learning model using a small hold-out dataset that is not exposed to the model during the training. Having a score function such as the loss function employed during the training, our method estimates the total variation (TV) distance between scores obtained with a subset of the training data and the hold-out dataset. With some meta information about the underlying DP training algorithm, these TV distance values can be converted to $(\varepsilon,\delta)$-guarantees for any $\delta$. We show that these score distributions asymptotically give lower bounds for the DP guarantees of the underlying training algorithm, however, we perform a one-shot estimation for practicality reasons. We specify conditions that lead to lower bounds for the DP guarantees with high probability. To estimate the TV distance between the score distributions, we use a simple density estimation method based on histograms. We show that the TV distance gives a very close to optimally robust estimator and has an error rate $\mathcal{O}(k^{-1/3})$, where $k$ is the total number of samples. Numerical experiments on benchmark datasets illustrate the effectiveness of our approach and show improvements over baseline methods for black-box auditing.
- Abstract(参考訳): 本稿では、トレーニング中にモデルに露出しない小さなホールドアウトデータセットを用いて、機械学習モデルの差分プライバシー(DP)保証を監査する実践的手法を提案する。
トレーニング中に発生する損失関数などのスコア関数を用いて,トレーニングデータのサブセットから得られたスコア間の総変動(TV)距離を推定する。
基礎となるDPトレーニングアルゴリズムに関するメタ情報により、これらのテレビ距離値は任意の$\delta$に対して$(\varepsilon,\delta)$-guaranteesに変換することができる。
本研究は,これらのスコア分布が,基礎となるトレーニングアルゴリズムのDP保証に対して,漸近的に低い限界を与えることを示すが,実際的な理由から,単発評価を行う。
DP保証の低い境界につながる条件を高い確率で指定する。
スコア分布間のテレビ距離を推定するために,ヒストグラムに基づく簡易密度推定法を用いる。
テレビの距離が最適に頑健な推定器に非常に近いことを示し、誤差レートが$\mathcal{O}(k^{-1/3})$であり、$k$はサンプルの総数であることを示す。
ベンチマークデータセットの数値実験は,提案手法の有効性を示し,ブラックボックス監査におけるベースライン手法の改善を示す。
関連論文リスト
- Resampling methods for private statistical inference [1.8110941972682346]
我々は、信頼区間を異なるプライバシーで構築する作業について検討する。
データのパーティション上で実行される複数の"小さな"ブートストラップの結果の中央値をプライベートに計算する,非パラメトリックブートストラップの2つのプライベート変種を提案する。
固定された差分プライバシーパラメータ$epsilon$に対して、我々のメソッドは、サンプルサイズ$n$の対数係数内の非プライベートブートストラップと同じエラー率を享受します。
論文 参考訳(メタデータ) (2024-02-11T08:59:02Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Bayesian Estimation of Differential Privacy [0.0]
Differentially Private SGDは、正式なプライバシ保証を備えた機械学習モデルのトレーニングを可能にする。
このようなアルゴリズムが理論的に保証する保護と、実際に得られる保護との間には相違点がある。
本稿では,プライバシ予算の信頼区間として,差分プライベートトレーニングによって得られる保護を実証的に評価する。
論文 参考訳(メタデータ) (2022-06-10T15:57:18Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Differentially Private Federated Learning via Inexact ADMM [0.0]
差分プライバシー(DP)技術は、データプライバシを推論攻撃から保護するために、フェデレーション付き学習モデルに適用することができる。
我々は,信頼領域のサブプロブレム列を解く乗算器アルゴリズムのDP不正確な交互方向法を開発した。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも22%削減すると同時に,データプライバシのレベルも同等に向上する。
論文 参考訳(メタデータ) (2021-06-11T02:28:07Z) - Achieving differential privacy for $k$-nearest neighbors based outlier
detection by data partitioning [0.3437656066916039]
我々は、$k$-NNに基づく外乱検出のための差分プライベート(epsilon$-DP)アプローチを開発した。
提案手法は,提案手法を参照不整合データに対する適合ステップに分離し,新しいデータに適用することで,$k$-NNに基づく外れ値検出を行う手法である。
提案手法は,$k$-NNの非プライベートバージョンと比較して,次元の異なる実世界のデータに対して,ほぼ最適な性能が得られる。
論文 参考訳(メタデータ) (2021-04-16T07:35:26Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。