論文の概要: A Randomized Approach for Tight Privacy Accounting
- arxiv url: http://arxiv.org/abs/2304.07927v1
- Date: Mon, 17 Apr 2023 00:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:42:54.843587
- Title: A Randomized Approach for Tight Privacy Accounting
- Title(参考訳): 厳密なプライバシー会計に対するランダム化アプローチ
- Authors: Jiachen T. Wang, Saeed Mahloujifar, Tong Wu, Ruoxi Jia, Prateek Mittal
- Abstract要約: 推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
- 参考スコア(独自算出の注目度): 45.049206746060996
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Bounding privacy leakage over compositions, i.e., privacy accounting, is a
key challenge in differential privacy (DP). However, the privacy parameter
($\varepsilon$ or $\delta$) is often easy to estimate but hard to bound. In
this paper, we propose a new differential privacy paradigm called
estimate-verify-release (EVR), which addresses the challenges of providing a
strict upper bound for privacy parameter in DP compositions by converting an
estimate of privacy parameter into a formal guarantee. The EVR paradigm first
estimates the privacy parameter of a mechanism, then verifies whether it meets
this guarantee, and finally releases the query output based on the verification
result. The core component of the EVR is privacy verification. We develop a
randomized privacy verifier using Monte Carlo (MC) technique. Furthermore, we
propose an MC-based DP accountant that outperforms existing DP accounting
techniques in terms of accuracy and efficiency. Our empirical evaluation shows
the newly proposed EVR paradigm improves the utility-privacy tradeoff for
privacy-preserving machine learning.
- Abstract(参考訳): コンポジション上のプライバシー漏洩、すなわちプライバシ会計の境界は、差分プライバシー(DP)の鍵となる課題である。
しかし、プライバシパラメータ($\varepsilon$または$\delta$)は、しばしば見積もりが容易であるが、制限が難しい。
本稿では,プライバシパラメータの推定値を形式的保証に変換することにより,dp構成におけるプライバシパラメータの厳格な上限を提供するという課題に対処する,新たな差分プライバシパラダイムとして,予測検証リリース(evr)を提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを検証し、最終的に検証結果に基づいてクエリ出力を解放する。
EVRの中核となるコンポーネントは、プライバシー検証である。
モンテカルロ法(MC)を用いたランダムなプライバシー検証手法を開発した。
さらに,既存のDP会計手法を精度と効率で上回るMCベースのDP会計器を提案する。
我々は,新たに提案するevrパラダイムが,プライバシ保護機械学習のユーティリティプライバシートレードオフを改善することを示す。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - A Learning-based Declarative Privacy-Preserving Framework for Federated Data Management [23.847568516724937]
本稿では,DP-SGDアルゴリズムを用いて学習したディープラーニングモデルを用いた新たなプライバシ保存手法を提案する。
次に、ユーザが"保護する方法"ではなく、"保護すべきプライベート情報"を指定可能な、宣言的なプライバシ保護ワークフローを新たにデモします。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。