論文の概要: MCMC for Bayesian estimation of Differential Privacy from Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2504.16683v1
- Date: Wed, 23 Apr 2025 13:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:24:14.013309
- Title: MCMC for Bayesian estimation of Differential Privacy from Membership Inference Attacks
- Title(参考訳): MCMCによる会員推測攻撃からのベイジアンプライバシ推定
- Authors: Ceren Yildirim, Kamer Kaya, Sinan Yildirim, Erkay Savas,
- Abstract要約: 差分プライバシーのベイズ推定のための新しい枠組みを提案する。
提案手法は,プライバシ監査が最悪のケース対に対して最も強力な攻撃を行うと仮定しない。
本稿では,人工データと実データの両方を用いて,数値的な例を用いた手法を提案する。
- 参考スコア(独自算出の注目度): 4.726164267268353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new framework for Bayesian estimation of differential privacy, incorporating evidence from multiple membership inference attacks (MIA). Bayesian estimation is carried out via a Markov chain Monte Carlo (MCMC) algorithm, named MCMC-DP-Est, which provides an estimate of the full posterior distribution of the privacy parameter (e.g., instead of just credible intervals). Critically, the proposed method does not assume that privacy auditing is performed with the most powerful attack on the worst-case (dataset, challenge point) pair, which is typically unrealistic. Instead, MCMC-DP-Est jointly estimates the strengths of MIAs used and the privacy of the training algorithm, yielding a more cautious privacy analysis. We also present an economical way to generate measurements for the performance of an MIA that is to be used by the MCMC method to estimate privacy. We present the use of the methods with numerical examples with both artificial and real data.
- Abstract(参考訳): 我々は,複数のメンバーシップ推論攻撃(MIA)による証拠を取り入れ,ベイズによる差分プライバシー推定のための新しい枠組みを提案する。
ベイズ推定は、MCMC-DP-Estと呼ばれるマルコフ連鎖モンテカルロ(MCMC)アルゴリズムによって行われる。
批判的に、提案手法は、プライバシ監査が最悪のケース(データセット、チャレンジポイント)ペアに対する最も強力な攻撃で実行されるとは考えていない。
その代わり、MCMC-DP-EstはMIAの強度とトレーニングアルゴリズムのプライバシーを共同で推定し、より慎重なプライバシー分析をもたらす。
また,MCMC法を用いてプライバシを推定するMIAの性能測定を行うための経済的な手法を提案する。
本稿では,人工データと実データの両方を用いて,数値的な例を用いた手法を提案する。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Confidence Aware Learning for Reliable Face Anti-spoofing [52.23271636362843]
本稿では,その能力境界を意識した信頼認識顔アンチスプーフィングモデルを提案する。
各サンプルの予測中にその信頼性を推定する。
実験の結果,提案したCA-FASは予測精度の低いサンプルを効果的に認識できることがわかった。
論文 参考訳(メタデータ) (2024-11-02T14:29:02Z) - Noisy Neighbors: Efficient membership inference attacks against LLMs [2.666596421430287]
本稿では,組込み空間に雑音を付加することにより,対象試料のテクストノイズを発生させる効率的な手法を提案する。
提案手法はシャドウモデルの有効性と密に一致し,実際のプライバシー監査シナリオにおけるユーザビリティを示す。
論文 参考訳(メタデータ) (2024-06-24T12:02:20Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - DP-Fast MH: Private, Fast, and Accurate Metropolis-Hastings for
Large-Scale Bayesian Inference [16.280801141284872]
差分プライバシー下での大規模ベイズ推定のためのメトロポリス・ハスティングス(MH)アルゴリズムについて検討する。
私たちは、プライバシ、スケーラビリティ、効率性の3つのトレードオフを初めて明らかにしました。
我々は,様々な実験において,アルゴリズムの有効性と効率を実証的に実証した。
論文 参考訳(メタデータ) (2023-03-10T19:14:20Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - Provable Membership Inference Privacy [31.08016816475564]
差別化プライバシ(DP)は、証明可能なプライバシの標準標準のひとつとして登場した。
本稿では,これらの課題に対処するために,新たなプライバシー概念である会員推測プライバシ(MIP)を提案する。
MIP は DP の保証に要する量よりもランダム性の少ない量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-11-12T06:13:00Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。