論文の概要: Summary Statistic Privacy in Data Sharing
- arxiv url: http://arxiv.org/abs/2303.02014v2
- Date: Fri, 27 Oct 2023 21:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:01:25.903316
- Title: Summary Statistic Privacy in Data Sharing
- Title(参考訳): データ共有における統計プライバシーの概要
- Authors: Zinan Lin, Shuaiqi Wang, Vyas Sekar, Giulia Fanti
- Abstract要約: 本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
- 参考スコア(独自算出の注目度): 23.50797952699759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a setting where a data holder wishes to share data with a receiver,
without revealing certain summary statistics of the data distribution (e.g.,
mean, standard deviation). It achieves this by passing the data through a
randomization mechanism. We propose summary statistic privacy, a metric for
quantifying the privacy risk of such a mechanism based on the worst-case
probability of an adversary guessing the distributional secret within some
threshold. Defining distortion as a worst-case Wasserstein-1 distance between
the real and released data, we prove lower bounds on the tradeoff between
privacy and distortion. We then propose a class of quantization mechanisms that
can be adapted to different data distributions. We show that the quantization
mechanism's privacy-distortion tradeoff matches our lower bounds under certain
regimes, up to small constant factors. Finally, we demonstrate on real-world
datasets that the proposed quantization mechanisms achieve better
privacy-distortion tradeoffs than alternative privacy mechanisms.
- Abstract(参考訳): データホルダがデータ配信(例えば、平均、標準偏差)の特定の要約統計を明らかにすることなく、データホルダが受信者とデータを共有したいという設定について検討する。
ランダム化機構を介してデータを渡すことでこれを実現できる。
本稿では,あるしきい値内で分布秘密を推測する相手の最悪の確率に基づいて,そのようなメカニズムのプライバシーリスクを定量化する指標である要約統計プライバシーを提案する。
歪みを、実際のデータと解放データの間の最悪のケースであるWasserstein-1距離として定義すると、プライバシーと歪みのトレードオフは低くなります。
次に,異なるデータ分布に適用可能な量子化機構のクラスを提案する。
量子化機構のプライバシゆがみトレードオフは、特定の体制下での我々の下限と、より小さな定数要因に合致することを示している。
最後に、提案する量子化メカニズムが、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現することを実世界のデータセットで実証する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Guarding Multiple Secrets: Enhanced Summary Statistic Privacy for Data Sharing [3.7274308010465775]
本稿では,データ共有における多極的サマリ統計量の定義,分析,保護を行う新しいフレームワークを提案する。
我々は,攻撃者がデータ公開機構のプライバシーリスクを,サマリ統計シークレットの推測に成功している最悪の確率で測定する。
論文 参考訳(メタデータ) (2024-05-22T16:30:34Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Combining Public and Private Data [7.975795748574989]
分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
論文 参考訳(メタデータ) (2021-10-29T23:25:49Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。