論文の概要: Privacy-preserving Data Sharing on Vertically Partitioned Data
- arxiv url: http://arxiv.org/abs/2010.09293v2
- Date: Fri, 2 Sep 2022 07:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:23:07.846674
- Title: Privacy-preserving Data Sharing on Vertically Partitioned Data
- Title(参考訳): 垂直分割データによるプライバシー保護データ共有
- Authors: Razane Tajeddine, Joonas J\"alk\"o, Samuel Kaski, and Antti Honkela
- Abstract要約: 本稿では,垂直分割データから合成データを生成する微分プライベート手法を提案する。
我々は変分推論を用いて分割データ上で混合モデルを訓練する。
システム内のさまざまなプレーヤに対するプライバシ保証を厳格に定義する。
- 参考スコア(独自算出の注目度): 16.167363414383576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a differentially private method for generating
synthetic data from vertically partitioned data, \emph{i.e.}, where data of the
same individuals is distributed across multiple data holders or parties. We
present a differentially privacy stochastic gradient descent (DP-SGD) algorithm
to train a mixture model over such partitioned data using variational
inference. We modify a secure multiparty computation (MPC) framework to combine
MPC with differential privacy (DP), in order to use differentially private MPC
effectively to learn a probabilistic generative model under DP on such
vertically partitioned data.
Assuming the mixture components contain no dependencies across different
parties, the objective function can be factorized into a sum of products of the
contributions calculated by the parties. Finally, MPC is used to compute the
aggregate between the different contributions. Moreover, we rigorously define
the privacy guarantees with respect to the different players in the system. To
demonstrate the accuracy of our method, we run our algorithm on the Adult
dataset from the UCI machine learning repository, where we obtain comparable
results to the non-partitioned case.
- Abstract(参考訳): 本研究では,同一個体のデータを複数のデータホルダやパーティに分散する,垂直分割されたデータから合成データを生成する差分プライベート手法である \emph{i,e} を導入する。
本稿では,差分プライバシー確率勾配降下法(dp-sgd)アルゴリズムを用いて,分断データ上の混合モデルを変分推論を用いて学習する。
我々は,MPCと差分プライバシ(DP)を組み合わせたセキュアなマルチパーティ計算(MPC)フレームワークを改良し,差分プライベートなMPCを効果的に利用し,これらの垂直分割データに基づいてDPの下で確率的生成モデルを学習する。
混合成分が異なる当事者間の依存関係を含まないと仮定すると、目的関数は、当事者が計算した貢献の積の和に分解することができる。
最後に、mpcは異なるコントリビューション間の集約を計算するために使われます。
さらに,システム内の異なるプレーヤに対して,プライバシの保証を厳格に定義する。
本手法の精度を示すために,本アルゴリズムをuci機械学習リポジトリから成人データセット上で実行し,非参加事例に匹敵する結果を得た。
関連論文リスト
- Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - Enhancing Scalability of Metric Differential Privacy via Secret Dataset Partitioning and Benders Decomposition [1.283608820493284]
メトリック微分プライバシー(mDP)は、新しいデータパラダイムとして機能するために、差分プライバシー(DP)の概念を拡張します。
道路網やグリッドマップ上の単語埋め込みや位置情報として符号化されたテキストデータなど、一般的なメートル法空間で表される秘密データを保護するように設計されている。
論文 参考訳(メタデータ) (2024-05-07T14:19:09Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - Privacy-Preserving and Lossless Distributed Estimation of
High-Dimensional Generalized Additive Mixed Models [0.9023847175654603]
CWBを用いたGAMM(Generalized Additive Mixed Model)の分散・プライバシ保存・ロスレス推定アルゴリズムを提案する。
我々のCWBの適応は、偏りのない特徴選択や高次元特徴空間におけるモデル適合性など、元のアルゴリズムのすべての重要な特性を保っている。
また, 分散心疾患データセット上でのアルゴリズムの有効性を実証し, 最先端の手法と比較した。
論文 参考訳(メタデータ) (2022-10-14T11:41:18Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Secure Metric Learning via Differential Pairwise Privacy [36.946123614592054]
本稿では,距離メトリック学習において,攻撃者に対してペアワイズ情報を漏洩させる方法について,初めて検討する。
我々は、標準微分プライバシーの定義を一般化し、安全な計量学習のための微分ペアプライバシー(DPP)を開発する。
論文 参考訳(メタデータ) (2020-03-30T12:47:48Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。