論文の概要: Privacy Mechanism Design based on Empirical Distributions
- arxiv url: http://arxiv.org/abs/2509.22428v1
- Date: Fri, 26 Sep 2025 14:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.515578
- Title: Privacy Mechanism Design based on Empirical Distributions
- Title(参考訳): 経験的分布に基づくプライバシメカニズムの設計
- Authors: Leonhard Grosse, Sara Saeidian, Mikael Skoglund, Tobias J. Oechtering,
- Abstract要約: ポイントワイド最大リーク(ポイントワイド最大リーク、英: Pointwise maximal leakage、PML)は、定量的情報フローからの脅威モデルに基づく、アウトカムごとのプライバシー対策である。
本稿では,このデータ生成分布を実証的に推定したPMLプライバシ評価とメカニズム設計のためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.33156483258328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pointwise maximal leakage (PML) is a per-outcome privacy measure based on threat models from quantitative information flow. Privacy guarantees with PML rely on knowledge about the distribution that generated the private data. In this work, we propose a framework for PML privacy assessment and mechanism design with empirical estimates of this data-generating distribution. By extending the PML framework to consider sets of data-generating distributions, we arrive at bounds on the worst-case leakage within a given set. We use these bounds alongside large-deviation bounds from the literature to provide a method for obtaining distribution-independent $(\varepsilon,\delta)$-PML guarantees when the data-generating distribution is estimated from available data samples. We provide an optimal binary mechanism, and show that mechanism design with this type of uncertainty about the data-generating distribution reduces to a linearly constrained convex program. Further, we show that optimal mechanisms designed for a distribution estimate can be used. Finally, we apply these tools to leakage assessment of the Laplace mechanism and the Gaussian mechanism for binary private data, and numerically show that the presented approach to mechanism design can yield significant utility increase compared to local differential privacy, while retaining similar privacy guarantees.
- Abstract(参考訳): ポイントワイド最大リーク(ポイントワイド最大リーク、英: Pointwise maximal leakage、PML)は、定量的情報フローからの脅威モデルに基づく、アウトカムごとのプライバシー対策である。
PMLによるプライバシ保証は、プライベートデータを生成する配布に関する知識に依存している。
本研究では,このデータ生成分布を実験的に推定したPMLプライバシ評価とメカニズム設計のためのフレームワークを提案する。
PMLフレームワークをデータ生成ディストリビューションの集合に拡張することにより、与えられたセット内の最悪のケースリークのバウンダリに到達します。
本研究では,データ生成分布が利用可能なデータサンプルから推定された場合の分布非依存な$(\varepsilon,\delta)$-PML保証を得るために,文献からの大きな境界値とともにこれらの境界値を用いる。
本稿では,データ生成分布に関するこのような不確実性を持つ機構設計が,線形に制約された凸プログラムに還元されることを示す。
さらに,分布推定のための最適機構が利用できることを示す。
最後に、これらのツールを、バイナリプライベートデータに対するLaplaceメカニズムとGaussianメカニズムの漏洩評価に適用し、同様のプライバシー保証を維持しつつ、メカニズム設計への提案されたアプローチが、局所的な差分プライバシーと比較して大きなユーティリティ向上をもたらすことを数値的に示す。
関連論文リスト
- Differentially Private Distribution Release of Gaussian Mixture Models via KL-Divergence Minimization [5.615206798152645]
本稿では,GMMパラメータに厳格な乱摂動を付加するDP機構を提案する。
当社のアプローチは、高いユーティリティを維持しながら、強力なプライバシ保証を実現する。
論文 参考訳(メタデータ) (2025-06-04T00:40:24Z) - Verifiable Exponential Mechanism for Median Estimation [4.083860866484599]
本稿では,zk-SNARKを用いた指数関数機構の最初の検証実装を提案する。
具体的応用として、最初の検証可能な微分プライベート(DP)中央値推定法を示す。
論文 参考訳(メタデータ) (2025-05-22T05:31:22Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - The Poisson binomial mechanism for secure and private federated learning [19.399122892615573]
本稿では,分散平均推定(DME)のための離散的差分プライバシー機構を導入し,フェデレーション学習と分析に応用する。
我々は、プライバシー保証の厳密な分析を行い、連続的なガウス機構と同じプライバシーと精度のトレードオフを達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T05:46:28Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。