論文の概要: Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms
- arxiv url: http://arxiv.org/abs/2207.08367v1
- Date: Mon, 18 Jul 2022 03:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 19:08:23.657953
- Title: Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms
- Title(参考訳): 分散プライバシー機構によるデータセットのグローバルな特性保護
- Authors: Michelle Chen and Olga Ohrimenko
- Abstract要約: 本稿では,データセットのグローバルなプロパティ保護の問題を形式化するために,分散プライバシフレームワークを適用する方法を示す。
我々は、これらのメカニズムによって提供される理論的保護保証を、様々なデータ前提の下で分析する。
- 参考スコア(独自算出の注目度): 8.19841678851784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alongside the rapid development of data collection and analysis techniques in
recent years, there is increasingly an emphasis on the need to address
information leakage associated with such usage of data. To this end, much work
in the privacy literature is devoted to the protection of individual users and
contributors of data. However, some situations instead require a different
notion of data confidentiality involving global properties aggregated over the
records of a dataset. Such notions of information protection are particularly
applicable for business and organization data, where global properties may
reflect trade secrets, or demographic data, which can be harmful if mishandled.
Recent work on property inference attacks furthermore shows how data analysis
algorithms can be susceptible to leaking these global properties of data,
highlighting the importance of developing mechanisms that can protect such
information.
In this work, we demonstrate how a distribution privacy framework can be
applied to formalize the problem of protecting global properties of datasets.
Given this framework, we investigate several mechanisms and their tradeoffs for
providing this notion of data confidentiality. We analyze the theoretical
protection guarantees offered by these mechanisms under various data
assumptions, then implement and empirically evaluate these mechanisms for
several data analysis tasks. The results of our experiments show that our
mechanisms can indeed reduce the effectiveness of practical property inference
attacks while providing utility substantially greater than a crude group
differential privacy baseline. Our work thus provides groundwork for
theoretically supported mechanisms for protecting global properties of
datasets.
- Abstract(参考訳): 近年、データ収集・分析技術の急速な発展とともに、このようなデータの使用に伴う情報漏洩に対処する必要性がますます強調されている。
この目的のために、プライバシ文献における多くの作業は、個々のユーザとデータのコントリビュータの保護に費やされている。
しかし、いくつかの状況ではデータセットのレコード上に集約されたグローバルプロパティを含むデータ機密性の異なる概念を必要とする。
このような情報保護の概念は、グローバルなプロパティが貿易秘密や人口統計データを反映している可能性がある企業や組織データに特に当てはまる。
プロパティ推論攻撃に関する最近の研究は、データ分析アルゴリズムがこれらのグローバルプロパティの漏洩にどのように影響を受けやすいかを示し、そのような情報を保護するメカニズムの開発の重要性を強調している。
本研究では,データセットのグローバルなプロパティ保護の問題を形式化するために,分散プライバシフレームワークを適用する方法を示す。
この枠組みを考えると、データ機密性の概念を提供するためのいくつかのメカニズムとそのトレードオフを調査します。
様々なデータ仮定の下で、これらのメカニズムによって提供される理論的保護保証を分析し、いくつかのデータ分析タスクのためにこれらのメカニズムを実装し、実証的に評価する。
実験の結果,我々のメカニズムは,粗いグループ差分プライバシーベースラインよりも有効性が高く,実用性推論攻撃の有効性を著しく低下させることができることがわかった。
本研究は,データセットのグローバルな特性を保護するための理論的支援機構の基礎となる。
関連論文リスト
- Bayes-Nash Generative Privacy Protection Against Membership Inference Attacks [24.330984323956173]
本稿では,データ共有機構出力のプライバシ保護のためのゲームモデルを提案する。
本稿では,ベイズ・ナッシュ生成プライバシ(BNGP)とベイズ生成プライバシ(BGP)のリスクについて紹介する。
本手法は要約統計の共有に応用され、MIAは集約データからでも個人を識別できる。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Attribute Privacy: Framework and Mechanisms [26.233612860653025]
本研究では、データ所有者が分析中にデータセット全体の機密性を明らかにすることに関心を持つ属性プライバシの研究を行う。
我々は,グローバル属性を保護する必要がある2つのケースにおいて,インパトリビュートプライバシを捕捉するための定義を提案する。
これらの設定の属性プライバシーを満足する2つの効率的なメカニズムと1つの非効率的なメカニズムを提供する。
論文 参考訳(メタデータ) (2020-09-08T22:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。