論文の概要: PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems
- arxiv url: http://arxiv.org/abs/2210.07775v1
- Date: Thu, 29 Sep 2022 03:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:53:04.719683
- Title: PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems
- Title(参考訳): privmvmf:レコメンダシステムのためのプライバシー保護型マルチビューマトリックス分解
- Authors: Peihua Mai, Yan Pang
- Abstract要約: 我々は、同型暗号化に基づく新しいプライバシ保存フレームワーク、プライバシ保存多視点行列分解(PrivMVMF)を提案する。
PrivMVMFはMovieLensデータセットでうまく実装され、徹底的にテストされている。
- 参考スコア(独自算出の注目度): 0.190365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With an increasing focus on data privacy, there have been pilot studies on
recommender systems in a federated learning (FL) framework, where multiple
parties collaboratively train a model without sharing their data. Most of these
studies assume that the conventional FL framework can fully protect user
privacy. However, there are serious privacy risks in matrix factorization in
federated recommender systems based on our study. This paper first provides a
rigorous theoretical analysis of the server reconstruction attack in four
scenarios in federated recommender systems, followed by comprehensive
experiments. The empirical results demonstrate that the FL server could infer
users' information with accuracy >80% based on the uploaded gradients from FL
nodes. The robustness analysis suggests that our reconstruction attack analysis
outperforms the random guess by >30% under Laplace noises with b no larger than
0.5 for all scenarios. Then, the paper proposes a new privacy-preserving
framework based on homomorphic encryption, Privacy-Preserving Multi-View Matrix
Factorization (PrivMVMF), to enhance user data privacy protection in federated
recommender systems. The proposed PrivMVMF is successfully implemented and
tested thoroughly with the MovieLens dataset.
- Abstract(参考訳): データプライバシへの注目が高まる中、フェデレーション学習(fl)フレームワークでは、複数のパーティがデータを共有せずに共同でモデルをトレーニングする、レコメンダシステムに関するパイロット研究が行われている。
これらの研究の多くは、従来のFLフレームワークがユーザーのプライバシーを完全に保護できると考えている。
しかし,本研究に基づくフェデレーションレコメンデータシステムでは,行列因子化に深刻なプライバシーリスクが伴う。
本稿では,まず,フェデレーション・レコメンデータシステムにおける4つのシナリオにおけるサーバリコンストラクション攻撃の厳密な理論的解析と包括的実験について述べる。
実験により,FLノードからアップロードした勾配に基づいて,FLサーバがユーザの情報を80%以上の精度で推測できることが実証された。
このロバスト性分析から, 再建攻撃解析はラプラス雑音下でのランダム推定を30%以上上回り, bは0.5以下であることがわかった。
そこで本論文では,準同型暗号に基づく,privmvmf(privmvmf)に基づく新たなプライバシ保存フレームワークを提案し,連合型レコメンダシステムにおけるユーザデータプライバシ保護を強化する。
提案する privmvmf は movielens データセットで実装およびテストに成功している。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and
Non-smooth Problems with Model Sparsification [54.767648945613004]
フェデレートラーニング(FL)は急速に成長している分野として認識されている。
パラメータの非平滑性と非共有性は、FLアプリケーションで一般的である。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Practical and Secure Federated Recommendation with Personalized Masks [24.565751694946062]
フェデレートレコメンデーションは、プライベート分散レコメンデーションシステムの新たな概念である。
現在のレコメンデータシステムは、主に同型暗号化と差分プライバシー方式を利用している。
本稿では,新しいフェデレーション・リコメンデーション・フレームワークであるフェデレーション・マスク・マトリックス・ファクタライゼーションを提案する。
論文 参考訳(メタデータ) (2021-08-18T07:12:23Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - A Federated Multi-View Deep Learning Framework for Privacy-Preserving
Recommendations [25.484225182093947]
プライバシー保護の勧告は、ユーザーのプライバシーとデータセキュリティに対する懸念から、勢いを増している。
FedRecアルゴリズムは、パーソナライズされたプライバシー保護レコメンデーションを実現するために提案されている。
本稿では,汎用コンテンツベースフェデレーション型マルチビューレコメンデーションフレームワークFLMV-DSSMを提案する。
論文 参考訳(メタデータ) (2020-08-25T04:19:40Z) - Privacy Threats Against Federated Matrix Factorization [14.876668437269817]
連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威について検討する。
本研究は,連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威に関する最初の研究である。
論文 参考訳(メタデータ) (2020-07-03T09:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。