論文の概要: PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems
- arxiv url: http://arxiv.org/abs/2210.07775v1
- Date: Thu, 29 Sep 2022 03:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:53:04.719683
- Title: PrivMVMF: Privacy-Preserving Multi-View Matrix Factorization for
Recommender Systems
- Title(参考訳): privmvmf:レコメンダシステムのためのプライバシー保護型マルチビューマトリックス分解
- Authors: Peihua Mai, Yan Pang
- Abstract要約: 我々は、同型暗号化に基づく新しいプライバシ保存フレームワーク、プライバシ保存多視点行列分解(PrivMVMF)を提案する。
PrivMVMFはMovieLensデータセットでうまく実装され、徹底的にテストされている。
- 参考スコア(独自算出の注目度): 0.190365714903665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With an increasing focus on data privacy, there have been pilot studies on
recommender systems in a federated learning (FL) framework, where multiple
parties collaboratively train a model without sharing their data. Most of these
studies assume that the conventional FL framework can fully protect user
privacy. However, there are serious privacy risks in matrix factorization in
federated recommender systems based on our study. This paper first provides a
rigorous theoretical analysis of the server reconstruction attack in four
scenarios in federated recommender systems, followed by comprehensive
experiments. The empirical results demonstrate that the FL server could infer
users' information with accuracy >80% based on the uploaded gradients from FL
nodes. The robustness analysis suggests that our reconstruction attack analysis
outperforms the random guess by >30% under Laplace noises with b no larger than
0.5 for all scenarios. Then, the paper proposes a new privacy-preserving
framework based on homomorphic encryption, Privacy-Preserving Multi-View Matrix
Factorization (PrivMVMF), to enhance user data privacy protection in federated
recommender systems. The proposed PrivMVMF is successfully implemented and
tested thoroughly with the MovieLens dataset.
- Abstract(参考訳): データプライバシへの注目が高まる中、フェデレーション学習(fl)フレームワークでは、複数のパーティがデータを共有せずに共同でモデルをトレーニングする、レコメンダシステムに関するパイロット研究が行われている。
これらの研究の多くは、従来のFLフレームワークがユーザーのプライバシーを完全に保護できると考えている。
しかし,本研究に基づくフェデレーションレコメンデータシステムでは,行列因子化に深刻なプライバシーリスクが伴う。
本稿では,まず,フェデレーション・レコメンデータシステムにおける4つのシナリオにおけるサーバリコンストラクション攻撃の厳密な理論的解析と包括的実験について述べる。
実験により,FLノードからアップロードした勾配に基づいて,FLサーバがユーザの情報を80%以上の精度で推測できることが実証された。
このロバスト性分析から, 再建攻撃解析はラプラス雑音下でのランダム推定を30%以上上回り, bは0.5以下であることがわかった。
そこで本論文では,準同型暗号に基づく,privmvmf(privmvmf)に基づく新たなプライバシ保存フレームワークを提案し,連合型レコメンダシステムにおけるユーザデータプライバシ保護を強化する。
提案する privmvmf は movielens データセットで実装およびテストに成功している。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Federated Learning on Riemannian Manifolds with Differential Privacy [8.75592575216789]
悪意のある敵は、様々な手段を通じて機密情報を推測することができる。
本稿では,差分プライバシ(DP)技術に基づいて定義された汎用的なプライベートFLフレームワークを提案する。
我々は収束性を確立しながらプライバシー保証を分析する。
合成および実世界のデータセット上で数値シミュレーションを行い,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-15T12:32:20Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - A Federated Multi-View Deep Learning Framework for Privacy-Preserving
Recommendations [25.484225182093947]
プライバシー保護の勧告は、ユーザーのプライバシーとデータセキュリティに対する懸念から、勢いを増している。
FedRecアルゴリズムは、パーソナライズされたプライバシー保護レコメンデーションを実現するために提案されている。
本稿では,汎用コンテンツベースフェデレーション型マルチビューレコメンデーションフレームワークFLMV-DSSMを提案する。
論文 参考訳(メタデータ) (2020-08-25T04:19:40Z) - Privacy Threats Against Federated Matrix Factorization [14.876668437269817]
連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威について検討する。
本研究は,連合学習フレームワークにおける行列因数分解手法のプライバシ・脅威に関する最初の研究である。
論文 参考訳(メタデータ) (2020-07-03T09:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。