論文の概要: Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing
- arxiv url: http://arxiv.org/abs/2306.14498v1
- Date: Mon, 26 Jun 2023 08:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 14:36:57.440989
- Title: Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing
- Title(参考訳): 秘密共有によるプライバシ保存型ガウスプロセス回帰
- Authors: Jinglong Luo, Yehong Zhang, Jiaqi Zhang, Shuang Qin, Hui Wang, Yue Yu,
Zenglin Xu
- Abstract要約: 本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 23.80837224347696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian process regression (GPR) is a non-parametric model that has been
used in many real-world applications that involve sensitive personal data
(e.g., healthcare, finance, etc.) from multiple data owners. To fully and
securely exploit the value of different data sources, this paper proposes a
privacy-preserving GPR method based on secret sharing (SS), a secure
multi-party computation (SMPC) technique. In contrast to existing studies that
protect the data privacy of GPR via homomorphic encryption, differential
privacy, or federated learning, our proposed method is more practical and can
be used to preserve the data privacy of both the model inputs and outputs for
various data-sharing scenarios (e.g., horizontally/vertically-partitioned
data). However, it is non-trivial to directly apply SS on the conventional GPR
algorithm, as it includes some operations whose accuracy and/or efficiency have
not been well-enhanced in the current SMPC protocol. To address this issue, we
derive a new SS-based exponentiation operation through the idea of
'confusion-correction' and construct an SS-based matrix inversion algorithm
based on Cholesky decomposition. More importantly, we theoretically analyze the
communication cost and the security of the proposed SS-based operations.
Empirical results show that our proposed method can achieve reasonable accuracy
and efficiency under the premise of preserving data privacy.
- Abstract(参考訳): ガウス過程回帰(Gaussian process regression、GPR)は、複数のデータ所有者の機密データ(医療、財務など)を含む多くの現実世界のアプリケーションで使われている非パラメトリックモデルである。
本稿では,異なるデータソースの価値を完全かつ確実に活用するために,セキュアなマルチパーティ計算(smpc)手法であるシークレット共有(ss)に基づくプライバシー保護型gpr手法を提案する。
gprのデータプライバシを準同型暗号化、差分プライバシ、あるいはフェデレーション学習を通じて保護する既存の研究とは対照的に、提案手法はより実用的であり、様々なデータ共有シナリオ(例えば水平/垂直分割データ)のモデル入力と出力の両方のデータプライバシを保存するのに使用できる。
しかし、現在のSMPCプロトコルでは精度や効率が良くない操作を含むため、従来のGPRアルゴリズムにSSを直接適用するのは簡単ではない。
この問題に対処するため、我々は「融合補正」というアイデアを通じて新しいSSベースの指数演算を導出し、Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
さらに,提案するssベースオペレーションの通信コストとセキュリティを理論的に解析した。
実験結果から,提案手法はデータプライバシの保護を前提として,妥当な精度と効率を実現できることが示された。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - DPGOMI: Differentially Private Data Publishing with Gaussian Optimized
Model Inversion [8.204115285718437]
本稿では,ガウス最適化モデルインバージョン(DPGOMI)を用いた微分プライベートデータパブリッシングを提案し,この問題に対処する。
提案手法では, パブリックジェネレータを用いてプライベートデータを潜時空間にマッピングし, コンバージェンス特性が向上した低次元DP-GANを用いる。
以上の結果から,DPGOMIは,インセプションスコア,Freche't Inception Distance,分類性能において,標準DP-GAN法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-06T18:46:22Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。