論文の概要: Summary Statistic Privacy in Data Sharing
- arxiv url: http://arxiv.org/abs/2303.02014v1
- Date: Fri, 3 Mar 2023 15:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:31:18.019695
- Title: Summary Statistic Privacy in Data Sharing
- Title(参考訳): データ共有における統計プライバシーの概要
- Authors: Zinan Lin, Shuaiqi Wang, Vyas Sekar, Giulia Fanti
- Abstract要約: 本稿では,プライバシー問題の解析と保護のためのフレームワークを提案する。
提案する量子化メカニズムは,現実のデータセット上での代替プライバシメカニズムよりも,より優れたプライバシ・歪曲トレードオフを実現する。
- 参考スコア(独自算出の注目度): 12.056956223380835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data sharing between different parties has become increasingly common across
industry and academia. An important class of privacy concerns that arises in
data sharing scenarios regards the underlying distribution of data. For
example, the total traffic volume of data from a networking company can reveal
the scale of its business, which may be considered a trade secret.
Unfortunately, existing privacy frameworks (e.g., differential privacy,
anonymization) do not adequately address such concerns. In this paper, we
propose summary statistic privacy, a framework for analyzing and protecting
these summary statistic privacy concerns. We propose a class of quantization
mechanisms that can be tailored to various data distributions and statistical
secrets, and analyze their privacy-distortion trade-offs under our framework.
We prove corresponding lower bounds on the privacy-utility tradeoff, which
match the tradeoffs of the quantization mechanism under certain regimes, up to
small constant factors. Finally, we demonstrate that the proposed quantization
mechanisms achieve better privacy-distortion tradeoffs than alternative privacy
mechanisms on real-world datasets.
- Abstract(参考訳): 異なる当事者間のデータ共有は、業界や学界でますます一般的になっている。
データ共有シナリオで発生するプライバシーに関する重要なクラスは、データの基盤となる分散に関するものだ。
例えば、ネットワーク企業からのデータのトラフィック総量は、そのビジネスの規模を明らかにする可能性がある。
残念ながら、既存のプライバシーフレームワーク(例えば、差分プライバシー、匿名化)はそのような懸念に適切に対処していない。
本稿では,これらの要約統計プライバシーを解析・保護するフレームワークであるサマリ統計プライバシーを提案する。
我々は,様々なデータ分布と統計機密に合わせた量子化機構のクラスを提案し,それらのプライバシゆがみトレードオフを分析した。
我々は、一定の条件下での量子化機構のトレードオフと一致する、プライバシーユーティリティトレードオフに対する対応する低い境界を、小さな定数要素まで証明する。
最後に,提案した量子化メカニズムが,現実のデータセット上の代替プライバシメカニズムよりも優れたプライバシー歪みトレードオフを実現することを示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Guarding Multiple Secrets: Enhanced Summary Statistic Privacy for Data Sharing [3.7274308010465775]
本稿では,データ共有における多極的サマリ統計量の定義,分析,保護を行う新しいフレームワークを提案する。
我々は,攻撃者がデータ公開機構のプライバシーリスクを,サマリ統計シークレットの推測に成功している最悪の確率で測定する。
論文 参考訳(メタデータ) (2024-05-22T16:30:34Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Combining Public and Private Data [7.975795748574989]
分散を最小化するために最適化された平均の混合推定器を導入する。
ユーザのプライバシニーズに比例してデータをサブサンプリングすることで、個人のプライバシを保護する手法よりも、当社のメカニズムの方が望ましい、と我々は主張する。
論文 参考訳(メタデータ) (2021-10-29T23:25:49Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。