論文の概要: Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms
- arxiv url: http://arxiv.org/abs/2207.08367v2
- Date: Mon, 10 Apr 2023 12:04:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 23:44:37.150936
- Title: Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms
- Title(参考訳): 分散プライバシー機構によるデータセットのグローバルな特性保護
- Authors: Michelle Chen and Olga Ohrimenko
- Abstract要約: このようなデータの機密性を形式化するために、配信プライバシフレームワークをどのように適用できるかを示す。
次に、これらのメカニズムのプライバシユーティリティトレードオフを実証的に評価し、実用的なプロパティ推論攻撃に対して適用する。
- 参考スコア(独自算出の注目度): 8.19841678851784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of ensuring confidentiality of dataset properties
aggregated over many records of a dataset. Such properties can encode sensitive
information, such as trade secrets or demographic data, while involving a
notion of data protection different to the privacy of individual records
typically discussed in the literature. In this work, we demonstrate how a
distribution privacy framework can be applied to formalize such data
confidentiality. We extend the Wasserstein Mechanism from Pufferfish privacy
and the Gaussian Mechanism from attribute privacy to this framework, then
analyze their underlying data assumptions and how they can be relaxed. We then
empirically evaluate the privacy-utility tradeoffs of these mechanisms and
apply them against a practical property inference attack which targets global
properties of datasets. The results show that our mechanisms can indeed reduce
the effectiveness of the attack while providing utility substantially greater
than a crude group differential privacy baseline. Our work thus provides
groundwork for theoretical mechanisms for protecting global properties of
datasets along with their evaluation in practice.
- Abstract(参考訳): 我々は、データセットの多くのレコードに集約されたデータセットプロパティの機密性を確保する問題を考える。
このような特性は、貿易秘密や人口統計データなどの機密情報をエンコードすると同時に、典型的に議論される個々のレコードのプライバシーとは異なるデータ保護の概念を含む。
本稿では,このようなデータの機密性を形式化するために,分散プライバシフレームワークをどのように適用できるかを実証する。
我々は、WassersteinのメカニズムをPufferfishのプライバシから、Gaussianのメカニズムをこのフレームワークに属性のプライバシから拡張し、基礎となるデータ仮定と緩和方法を分析します。
次に,これらのメカニズムのプライバシ利用性トレードオフを実証的に評価し,データセットのグローバルプロパティを対象とする実用的なプロパティ推論攻撃に適用する。
その結果,我々のメカニズムは,粗いグループ差分プライバシーベースラインよりも実用性が高く,攻撃の有効性を低下させることができることがわかった。
そこで本研究は,データセットのグローバルな特性と実際の評価を保護するための理論的メカニズムの基盤となる。
関連論文リスト
- Bayes-Nash Generative Privacy Protection Against Membership Inference Attacks [24.330984323956173]
本稿では,データ共有機構出力のプライバシ保護のためのゲームモデルを提案する。
本稿では,ベイズ・ナッシュ生成プライバシ(BNGP)とベイズ生成プライバシ(BGP)のリスクについて紹介する。
本手法は要約統計の共有に応用され、MIAは集約データからでも個人を識別できる。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Attribute Privacy: Framework and Mechanisms [26.233612860653025]
本研究では、データ所有者が分析中にデータセット全体の機密性を明らかにすることに関心を持つ属性プライバシの研究を行う。
我々は,グローバル属性を保護する必要がある2つのケースにおいて,インパトリビュートプライバシを捕捉するための定義を提案する。
これらの設定の属性プライバシーを満足する2つの効率的なメカニズムと1つの非効率的なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-09-08T22:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。