論文の概要: Provable Membership Inference Privacy
- arxiv url: http://arxiv.org/abs/2211.06582v1
- Date: Sat, 12 Nov 2022 06:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:03:22.440543
- Title: Provable Membership Inference Privacy
- Title(参考訳): メンバーシップ推論のプライバシ
- Authors: Zachary Izzo, Jinsung Yoon, Sercan O. Arik, James Zou
- Abstract要約: 差別化プライバシ(DP)は、証明可能なプライバシの標準標準のひとつとして登場した。
本稿では,これらの課題に対処するために,新たなプライバシー概念である会員推測プライバシ(MIP)を提案する。
MIP は DP の保証に要する量よりもランダム性の少ない量で実現可能であることを示す。
- 参考スコア(独自算出の注目度): 31.08016816475564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In applications involving sensitive data, such as finance and healthcare, the
necessity for preserving data privacy can be a significant barrier to machine
learning model development. Differential privacy (DP) has emerged as one
canonical standard for provable privacy. However, DP's strong theoretical
guarantees often come at the cost of a large drop in its utility for machine
learning, and DP guarantees themselves can be difficult to interpret. In this
work, we propose a novel privacy notion, membership inference privacy (MIP), to
address these challenges. We give a precise characterization of the
relationship between MIP and DP, and show that MIP can be achieved using less
amount of randomness compared to the amount required for guaranteeing DP,
leading to a smaller drop in utility. MIP guarantees are also easily
interpretable in terms of the success rate of membership inference attacks. Our
theoretical results also give rise to a simple algorithm for guaranteeing MIP
which can be used as a wrapper around any algorithm with a continuous output,
including parametric model training.
- Abstract(参考訳): 金融や医療といった機密性の高いデータを扱うアプリケーションでは、データのプライバシを保存する必要性が機械学習モデル開発にとって重要な障壁となる。
ディファレンシャルプライバシ(dp)は、証明可能なプライバシの標準標準として登場した。
しかし、DPの強力な理論的保証はしばしば機械学習のユーティリティの大幅な低下の犠牲となり、DPの保証自体を解釈するのは困難である。
本研究では,これらの課題に対処するため,新しいプライバシー概念である会員推測プライバシー(MIP)を提案する。
MIP と DP の関係を正確に評価し,DP の保証に要する量に比べて乱数率の少ない MIP を実現できることを示す。
MIP保証は、メンバーシップ推論攻撃の成功率の観点からも容易に解釈できる。
我々の理論的結果は、パラメトリックモデルトレーニングを含む連続的な出力を持つアルゴリズムのラッパーとして使用できる、MPIを保証するための単純なアルゴリズムも生み出す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Privacy-Preserving Federated Learning over Vertically and Horizontally
Partitioned Data for Financial Anomaly Detection [11.167661320589488]
実世界の金融異常検出シナリオでは、データは垂直と水平の両方に分割される。
我々のソリューションは、完全同型暗号化(HE)、セキュアマルチパーティ計算(SMPC)、微分プライバシー(DP)を組み合わせる。
私たちのソリューションは、米国プライバシ・エンハンシング・テクノロジーズ(PET)賞チャレンジの第1フェーズで2位を獲得しました。
論文 参考訳(メタデータ) (2023-10-30T06:51:33Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - DP-Fast MH: Private, Fast, and Accurate Metropolis-Hastings for
Large-Scale Bayesian Inference [16.280801141284872]
差分プライバシー下での大規模ベイズ推定のためのメトロポリス・ハスティングス(MH)アルゴリズムについて検討する。
私たちは、プライバシ、スケーラビリティ、効率性の3つのトレードオフを初めて明らかにしました。
我々は,様々な実験において,アルゴリズムの有効性と効率を実証的に実証した。
論文 参考訳(メタデータ) (2023-03-10T19:14:20Z) - Bounding Membership Inference [28.64031194463754]
トレーニングアルゴリズムが$epsilon$-DPを提供する場合、MI敵の精度に縛られる。
提案方式では,MI 攻撃者の成功を制限するために,モデルのトレーニングを行う際に,より緩やかな DP 保証を利用することが可能である。
論文 参考訳(メタデータ) (2022-02-24T17:54:15Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。