論文の概要: A General Framework for Auditing Differentially Private Machine Learning
- arxiv url: http://arxiv.org/abs/2210.08643v1
- Date: Sun, 16 Oct 2022 21:34:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:41:02.080686
- Title: A General Framework for Auditing Differentially Private Machine Learning
- Title(参考訳): 微分プライベート機械学習の監査のための汎用フレームワーク
- Authors: Fred Lu, Joseph Munoz, Maya Fuchs, Tyler LeBlond, Elliott
Zaresky-Williams, Edward Raff, Francis Ferraro, Brian Testa
- Abstract要約: 本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
- 参考スコア(独自算出の注目度): 27.99806936918949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework to statistically audit the privacy guarantee conferred
by a differentially private machine learner in practice. While previous works
have taken steps toward evaluating privacy loss through poisoning attacks or
membership inference, they have been tailored to specific models or have
demonstrated low statistical power. Our work develops a general methodology to
empirically evaluate the privacy of differentially private machine learning
implementations, combining improved privacy search and verification methods
with a toolkit of influence-based poisoning attacks. We demonstrate
significantly improved auditing power over previous approaches on a variety of
models including logistic regression, Naive Bayes, and random forest. Our
method can be used to detect privacy violations due to implementation errors or
misuse. When violations are not present, it can aid in understanding the amount
of information that can be leaked from a given dataset, algorithm, and privacy
specification.
- Abstract(参考訳): 本稿では,個別の機械学習者が実際に与えるプライバシー保証を統計的に監査する枠組みを提案する。
これまでの研究は、毒殺攻撃や会員推定によってプライバシーの損失を評価するための段階を採っているが、それらは特定のモデルに合わせたり、統計力の低さを示したりしてきた。
本研究は,プライバシ検索と検証手法の改善と,影響に基づく中毒攻撃のツールキットを組み合わせた,異なるプライベート機械学習実装のプライバシを実証的に評価する手法を開発した。
我々は,ロジスティック回帰,ナイーブベイ,ランダムフォレストなど,さまざまなモデルにおいて,従来のアプローチよりも監査能力が大幅に向上したことを示す。
本手法は,実装エラーや誤用によるプライバシ侵害の検出に使用できる。
違反がない場合には、与えられたデータセット、アルゴリズム、プライバシ仕様から漏洩する可能性のある情報の量を理解するのに役立つ。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Statistical Privacy Guarantees of Machine Learning Preprocessing
Techniques [1.198727138090351]
機械学習パイプラインのプライバシレベルを測定するために,統計的手法に基づくプライバシ違反検出フレームワークを適用した。
新たに作成されたフレームワークを適用して、不均衡なデータセットを扱う際に使用される再サンプリング技術によって、結果のモデルがよりプライバシーを漏洩することを示す。
論文 参考訳(メタデータ) (2021-09-06T14:08:47Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。