論文の概要: Privacy-preserving Data Sharing on Vertically Partitioned Data
- arxiv url: http://arxiv.org/abs/2010.09293v2
- Date: Fri, 2 Sep 2022 07:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:23:07.846674
- Title: Privacy-preserving Data Sharing on Vertically Partitioned Data
- Title(参考訳): 垂直分割データによるプライバシー保護データ共有
- Authors: Razane Tajeddine, Joonas J\"alk\"o, Samuel Kaski, and Antti Honkela
- Abstract要約: 本稿では,垂直分割データから合成データを生成する微分プライベート手法を提案する。
我々は変分推論を用いて分割データ上で混合モデルを訓練する。
システム内のさまざまなプレーヤに対するプライバシ保証を厳格に定義する。
- 参考スコア(独自算出の注目度): 16.167363414383576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a differentially private method for generating
synthetic data from vertically partitioned data, \emph{i.e.}, where data of the
same individuals is distributed across multiple data holders or parties. We
present a differentially privacy stochastic gradient descent (DP-SGD) algorithm
to train a mixture model over such partitioned data using variational
inference. We modify a secure multiparty computation (MPC) framework to combine
MPC with differential privacy (DP), in order to use differentially private MPC
effectively to learn a probabilistic generative model under DP on such
vertically partitioned data.
Assuming the mixture components contain no dependencies across different
parties, the objective function can be factorized into a sum of products of the
contributions calculated by the parties. Finally, MPC is used to compute the
aggregate between the different contributions. Moreover, we rigorously define
the privacy guarantees with respect to the different players in the system. To
demonstrate the accuracy of our method, we run our algorithm on the Adult
dataset from the UCI machine learning repository, where we obtain comparable
results to the non-partitioned case.
- Abstract(参考訳): 本研究では,同一個体のデータを複数のデータホルダやパーティに分散する,垂直分割されたデータから合成データを生成する差分プライベート手法である \emph{i,e} を導入する。
本稿では,差分プライバシー確率勾配降下法(dp-sgd)アルゴリズムを用いて,分断データ上の混合モデルを変分推論を用いて学習する。
我々は,MPCと差分プライバシ(DP)を組み合わせたセキュアなマルチパーティ計算(MPC)フレームワークを改良し,差分プライベートなMPCを効果的に利用し,これらの垂直分割データに基づいてDPの下で確率的生成モデルを学習する。
混合成分が異なる当事者間の依存関係を含まないと仮定すると、目的関数は、当事者が計算した貢献の積の和に分解することができる。
最後に、mpcは異なるコントリビューション間の集約を計算するために使われます。
さらに,システム内の異なるプレーヤに対して,プライバシの保証を厳格に定義する。
本手法の精度を示すために,本アルゴリズムをuci機械学習リポジトリから成人データセット上で実行し,非参加事例に匹敵する結果を得た。
関連論文リスト
- Mean Estimation with User-level Privacy under Data Heterogeneity [54.07947274508013]
異なるユーザーは、非常に多くの異なるデータポイントを持っているかもしれない。
すべてのユーザが同じディストリビューションからサンプルを採取していると仮定することはできない。
本研究では,データの分布と量の両方でユーザデータが異なる異質なユーザデータの単純なモデルを提案する。
論文 参考訳(メタデータ) (2023-07-28T23:02:39Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Privacy-Preserving and Lossless Distributed Estimation of
High-Dimensional Generalized Additive Mixed Models [0.9023847175654603]
CWBを用いたGAMM(Generalized Additive Mixed Model)の分散・プライバシ保存・ロスレス推定アルゴリズムを提案する。
我々のCWBの適応は、偏りのない特徴選択や高次元特徴空間におけるモデル適合性など、元のアルゴリズムのすべての重要な特性を保っている。
また, 分散心疾患データセット上でのアルゴリズムの有効性を実証し, 最先端の手法と比較した。
論文 参考訳(メタデータ) (2022-10-14T11:41:18Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Federated Model Distillation with Noise-Free Differential Privacy [35.72801867380072]
我々はFEDMD-NFDPと呼ばれる新しいフレームワークを提案し、このフレームワークはFEDMD-NFDP機構をフェデレートされたモデル蒸留フレームワークに適用する。
FEDMD-NFDPが同等のユーティリティと通信効率を提供できることを示す。
論文 参考訳(メタデータ) (2020-09-11T17:19:56Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Secure Metric Learning via Differential Pairwise Privacy [36.946123614592054]
本稿では,距離メトリック学習において,攻撃者に対してペアワイズ情報を漏洩させる方法について,初めて検討する。
我々は、標準微分プライバシーの定義を一般化し、安全な計量学習のための微分ペアプライバシー(DPP)を開発する。
論文 参考訳(メタデータ) (2020-03-30T12:47:48Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。