論文の概要: Differentially Private Multi-Party Data Release for Linear Regression
- arxiv url: http://arxiv.org/abs/2206.07998v1
- Date: Thu, 16 Jun 2022 08:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 07:51:21.793795
- Title: Differentially Private Multi-Party Data Release for Linear Regression
- Title(参考訳): 線形回帰のための微分プライベート多人数データリリース
- Authors: Ruihan Wu, Xin Yang, Yuanshun Yao, Jiankai Sun, Tianyi Liu, Kilian Q.
Weinberger, Chong Wang
- Abstract要約: Differentially Private (DP) データリリースは、データ対象のプライバシを損なうことなくデータを広める、有望なテクニックである。
本稿では、異なる利害関係者が同じデータ対象グループに属する不整合な属性セットを所有するマルチパーティ設定に焦点を当てる。
提案手法は,データセットサイズが増大する最適(プライベートでない)解に収束することを示す。
- 参考スコア(独自算出の注目度): 40.66319371232736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentially Private (DP) data release is a promising technique to
disseminate data without compromising the privacy of data subjects. However the
majority of prior work has focused on scenarios where a single party owns all
the data. In this paper we focus on the multi-party setting, where different
stakeholders own disjoint sets of attributes belonging to the same group of
data subjects. Within the context of linear regression that allow all parties
to train models on the complete data without the ability to infer private
attributes or identities of individuals, we start with directly applying
Gaussian mechanism and show it has the small eigenvalue problem. We further
propose our novel method and prove it asymptotically converges to the optimal
(non-private) solutions with increasing dataset size. We substantiate the
theoretical results through experiments on both artificial and real-world
datasets.
- Abstract(参考訳): Differentially Private (DP) データリリースは,データのプライバシを損なうことなくデータを広める,有望なテクニックである。
しかしながら、以前の作業の大部分は、単一のパーティがすべてのデータを所有するシナリオに重点を置いている。
本稿では、異なる利害関係者が同じデータ対象グループに属する不整合な属性セットを所有するマルチパーティ設定に焦点を当てる。
線形回帰の文脈内では、すべての当事者が個人の個人属性やアイデンティティを推論することなく、完全なデータ上でモデルを訓練できるので、ガウスのメカニズムを直接適用し、小さな固有値問題を持つことから始める。
さらに,本手法はデータセットサイズを増加させ,最適(非プライベート)解に漸近的に収束することを示す。
人工と実世界の両方のデータセットに関する実験を通じて理論的結果を裏付ける。
関連論文リスト
- Privacy-Optimized Randomized Response for Sharing Multi-Attribute Data [1.1510009152620668]
マルチ属性データの共有において最強のプライバシを保証するために,プライバシ最適化ランダム化応答を提案する。
また、近似属性機構を構築するための効率的なアルゴリズムを提案する。
提案手法は,既存の手法に比べて,データセット全体のプライバシー保証を大幅に強化する。
論文 参考訳(メタデータ) (2024-02-12T11:34:42Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Data Analytics with Differential Privacy [0.0]
我々は分散データとストリーミングデータを解析するための差分プライベートアルゴリズムを開発した。
分散モデルでは、学習の特定の問題 -- 分散形式で -- がデータのグローバルモデルであると考えている。
私たちは、ストリーミングモデル、ユーザーレベルのパンプライバシに対して、最も強力なプライバシー保証の1つを提供しています。
論文 参考訳(メタデータ) (2023-07-20T17:43:29Z) - Differentially Private Synthetic Data Using KD-Trees [11.96971298978997]
ノイズ摂動とともに空間分割技術を活用し,直観的かつ透過的なアルゴリズムを実現する。
我々は、$epsilon$-differentially private synthesis data generationのためのデータ独立アルゴリズムとデータ依存アルゴリズムの両方を提案する。
先行研究に対して実証的な実用性向上を示すとともに,実データセット上の下流分類タスクにおけるアルゴリズムの性能について考察する。
論文 参考訳(メタデータ) (2023-06-19T17:08:32Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Differentially Private Ensemble Classifiers for Data Streams [3.9838304163788183]
データ所有者のプライベート情報を保護しながら、データ特性(コンセプトドリフト)の進化に適応することは、オープンな課題である。
この問題に対して2つの特徴を持つ差分プライベートアンサンブル解を提案する。
これにより、テキストで区切られた多数のアンサンブル更新が、潜在的に終わらないデータストリームに対処できる。
テキストモデル非依存であり、事前訓練された差分的個人分類/回帰モデルをブラックボックスとして扱う。
論文 参考訳(メタデータ) (2021-12-09T00:55:04Z) - An Analysis of the Deployment of Models Trained on Private Tabular
Synthetic Data: Unexpected Surprises [4.129847064263057]
異なるプライベート(DP)合成データセットは、機械学習モデルをトレーニングするための強力なアプローチである。
差分プライベートな合成データ生成が分類に与える影響について検討する。
論文 参考訳(メタデータ) (2021-06-15T21:00:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。