論文の概要: Attribute Privacy: Framework and Mechanisms
- arxiv url: http://arxiv.org/abs/2009.04013v2
- Date: Tue, 11 May 2021 23:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:13:44.330987
- Title: Attribute Privacy: Framework and Mechanisms
- Title(参考訳): 属性プライバシ: フレームワークとメカニズム
- Authors: Wanrong Zhang, Olga Ohrimenko, Rachel Cummings
- Abstract要約: 本研究では、データ所有者が分析中にデータセット全体の機密性を明らかにすることに関心を持つ属性プライバシの研究を行う。
我々は,グローバル属性を保護する必要がある2つのケースにおいて,インパトリビュートプライバシを捕捉するための定義を提案する。
これらの設定の属性プライバシーを満足する2つの効率的なメカニズムと1つの非効率的なメカニズムを提供する。
- 参考スコア(独自算出の注目度): 26.233612860653025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring the privacy of training data is a growing concern since many machine
learning models are trained on confidential and potentially sensitive data.
Much attention has been devoted to methods for protecting individual privacy
during analyses of large datasets. However in many settings, global properties
of the dataset may also be sensitive (e.g., mortality rate in a hospital rather
than presence of a particular patient in the dataset). In this work, we depart
from individual privacy to initiate the study of attribute privacy, where a
data owner is concerned about revealing sensitive properties of a whole dataset
during analysis. We propose definitions to capture \emph{attribute privacy} in
two relevant cases where global attributes may need to be protected: (1)
properties of a specific dataset and (2) parameters of the underlying
distribution from which dataset is sampled. We also provide two efficient
mechanisms and one inefficient mechanism that satisfy attribute privacy for
these settings. We base our results on a novel use of the Pufferfish framework
to account for correlations across attributes in the data, thus addressing "the
challenging problem of developing Pufferfish instantiations and algorithms for
general aggregate secrets" that was left open by \cite{kifer2014pufferfish}.
- Abstract(参考訳): 多くの機械学習モデルが機密で潜在的に機密性の高いデータに基づいてトレーニングされているため、トレーニングデータのプライバシの確保が懸念される。
大規模なデータセットの分析において、個々のプライバシを保護する方法に多くの注意が払われている。
しかし、多くの設定において、データセットのグローバル特性は敏感である(例えば、データセット内の特定の患者の存在よりも病院での死亡率)。
この研究では、データ所有者が分析中にデータセット全体の機密プロパティを明らかにすることを懸念する属性プライバシの研究を開始するために、個々のプライバシから出発します。
本稿では,グローバル属性を保護する必要がある2つのケースにおいて,(1)特定のデータセットの特性と(2)データセットがサンプリングされる基盤分布のパラメータをキャプチャする定義を提案する。
また、これらの設定の属性プライバシーを満たす2つの効率的なメカニズムと1つの非効率的なメカニズムも提供する。
我々は,データ内の属性間の相関を考慮に入れた新しいpufferfishフレームワークを用いて, \cite{kifer2014pufferfish} が残した "一般的な集合秘密のための pufferfish のインスタンス化とアルゴリズムを開発することの難題" を解決した。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - Privacy-Optimized Randomized Response for Sharing Multi-Attribute Data [1.1510009152620668]
マルチ属性データの共有において最強のプライバシを保証するために,プライバシ最適化ランダム化応答を提案する。
また、近似属性機構を構築するための効率的なアルゴリズムを提案する。
提案手法は,既存の手法に比べて,データセット全体のプライバシー保証を大幅に強化する。
論文 参考訳(メタデータ) (2024-02-12T11:34:42Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Protecting Global Properties of Datasets with Distribution Privacy
Mechanisms [8.19841678851784]
このようなデータの機密性を形式化するために、配信プライバシフレームワークをどのように適用できるかを示す。
次に、これらのメカニズムのプライバシユーティリティトレードオフを実証的に評価し、実用的なプロパティ推論攻撃に対して適用する。
論文 参考訳(メタデータ) (2022-07-18T03:54:38Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。