論文の概要: Breaking the Gaussian Barrier: Residual-PAC Privacy for Automatic Privatization
- arxiv url: http://arxiv.org/abs/2506.06530v1
- Date: Fri, 06 Jun 2025 20:52:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.038339
- Title: Breaking the Gaussian Barrier: Residual-PAC Privacy for Automatic Privatization
- Title(参考訳): ガウス障壁を破る - 自動プライバタイズのための残留PACプライバシー
- Authors: Tao Zhang, Yevgeniy Vorobeychik,
- Abstract要約: 本稿では,逆推定後に残るプライバシを定量化する f-divergence ベースの尺度である Residual PAC Privacy を紹介する。
また,最適な雑音分布を選択するゲーム理論であるRPACプライバシーのための,Stackelberg Residual-PAC(SR-PAC)の民営化機構を提案する。
- 参考スコア(独自算出の注目度): 25.387857775660855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Probably Approximately Correct (PAC) Privacy framework [1] provides a powerful instance-based methodology for certifying privacy in complex data-driven systems. However, existing PAC Privacy algorithms rely on a Gaussian mutual information upper bound. We show that this is in general too conservative: the upper bound obtained by these algorithms is tight if and only if the perturbed mechanism output is jointly Gaussian with independent Gaussian noise. To address the inefficiency inherent in the Gaussian-based approach, we introduce Residual PAC Privacy, an f-divergence-based measure that quantifies the privacy remaining after adversarial inference. When instantiated with Kullback-Leibler divergence, Residual-PAC Privacy is governed by conditional entropy. Moreover, we propose Stackelberg Residual-PAC (SR-PAC) privatization mechanisms for RPAC Privacy, a game-theoretic framework that selects optimal noise distributions through convex bilevel optimization. Our approach achieves tight privacy budget utilization for arbitrary data distributions. Moreover, it naturally composes under repeated mechanisms and provides provable privacy guarantees with higher statistical efficiency. Numerical experiments demonstrate that SR-PAC certifies the target privacy budget while consistently improving utility compared to existing methods.
- Abstract(参考訳): Probably Aquatrect (PAC) Privacy framework[1]は、複雑なデータ駆動システムにおけるプライバシを認証するための強力なインスタンスベースの方法論を提供する。
しかし、既存のPACプライバシーアルゴリズムはガウスの相互情報の上限に依存している。
これらのアルゴリズムによって得られる上限は、摂動機構の出力が独立ガウス雑音と共同でガウス的である場合に限り、厳密である。
ガウスのアプローチに固有の非効率性に対処するため、敵推論後に残るプライバシーを定量化するf-divergenceベースの尺度であるResidual PAC Privacyを導入する。
Kullback-Leibler分散でインスタンス化されると、Residual-PAC Privacyは条件エントロピーによって管理される。
さらに,コンベックスバイレベル最適化により最適な雑音分布を選択するゲーム理論であるRPACプライバシーのためのStackelberg Residual-PAC(SR-PAC)の民営化機構を提案する。
提案手法は,任意のデータ配信に対して,厳密なプライバシー予算利用を実現する。
さらに、繰り返し機構の下で自然に構成され、高い統計的効率で証明可能なプライバシー保証を提供する。
数値実験により、SR-PACは既存の方法と比較して実用性を一貫して改善しつつ、目標とするプライバシー予算を認定することを示した。
関連論文リスト
- Meeting Utility Constraints in Differential Privacy: A Privacy-Boosting Approach [7.970280110429423]
本稿では,ほとんどのノイズ付加型DP機構と互換性のあるプライバシブースティングフレームワークを提案する。
私たちのフレームワークは、ユーティリティ要件を満たすために、サポートの望ましいサブセットに出力が落ちる可能性を高める。
提案手法は,実用性制約下での標準DP機構よりも低いプライバシー損失を実現する。
論文 参考訳(メタデータ) (2024-12-13T23:34:30Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。