論文の概要: FastPFRec: A Fast Personalized Federated Recommendation with Secure Sharing
- arxiv url: http://arxiv.org/abs/2603.20283v1
- Date: Wed, 18 Mar 2026 05:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-24 19:11:38.799773
- Title: FastPFRec: A Fast Personalized Federated Recommendation with Secure Sharing
- Title(参考訳): FastPFRec: セキュア共有を備えた高速な個人化フェデレーションレコメンデーション
- Authors: Zhenxing Yan, Jidong Yuan, Yongqi Sun, Haiyang Liu, Zhihui Gao,
- Abstract要約: 我々は、トレーニング効率とデータセキュリティの両方を強化する新しいフレームワークであるFastPFRecを提案する。
FastPFRecは、既存のベースラインに比べて32.0%のトレーニングラウンド、34.1%のトレーニングタイム、8.1%の精度を達成した。
- 参考スコア(独自算出の注目度): 9.074022552615402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN)-based federated recommendation systems effectively capture user-item relationships while preserving data privacy. However, existing methods often face slow convergence on graph data and privacy leakage risks during collaboration. To address these challenges, we propose FastPFRec (Fast Personalized Federated Recommendation with Secure Sharing), a novel framework that enhances both training efficiency and data security. FastPFRec accelerates model convergence through an efficient local update strategy and introduces a privacy-aware parameter sharing mechanism to mitigate leakage risks. Experiments on four real-world datasets (Yelp, Kindle, Gowalla-100k, and Gowalla-1m) show that FastPFRec achieves 32.0% fewer training rounds, 34.1% shorter training time, and 8.1% higher accuracy compared with existing baselines. These results demonstrate that FastPFRec provides an efficient and privacy-preserving solution for scalable federated recommendation.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)ベースのフェデレーションレコメンデーションシステムは、データのプライバシを保持しながら、ユーザとイテムの関係を効果的にキャプチャする。
しかし、既存の手法は、コラボレーション中にグラフデータとプライバシー漏洩のリスクに緩やかな収束に直面していることが多い。
これらの課題に対処するために、トレーニング効率とデータセキュリティの両方を強化する新しいフレームワークであるFastPFRec(Fast Personalized Federated Recommendation with Secure Sharing)を提案する。
FastPFRecは、効率的なローカル更新戦略を通じてモデルの収束を加速し、リークリスクを軽減するために、プライバシを意識したパラメータ共有メカニズムを導入する。
4つの実世界のデータセット(Yelp、Kindle、Gowalla-100k、Gowalla-1m)の実験は、FastPFRecが既存のベースラインと比較して32.0%のトレーニングラウンド、34.1%のトレーニングタイム、8.1%の精度を達成したことを示している。
これらの結果は、FastPFRecがスケーラブルなフェデレーションレコメンデーションのための効率的かつプライバシ保護ソリューションを提供することを示している。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Accelerating Privacy-Preserving Medical Record Linkage: A Three-Party MPC Approach [1.7999333451993955]
本稿では,セキュアな3次元計算フレームワークに基づく,新規で効率的なPPRLを提案する。
提案手法は,最先端PPRL法のリンク品質を最大14倍高速に保ちながら維持できることを実証する。
論文 参考訳(メタデータ) (2024-10-28T23:13:01Z) - Efficient Federated Learning Using Dynamic Update and Adaptive Pruning with Momentum on Shared Server Data [59.6985168241067]
フェデレートラーニング(FL)は、低トレーニング効率と限られた計算資源の2つの重要な問題に遭遇する。
本稿では,サーバ上の共有不感データとエッジデバイスの分散データを活用するための新しいFLフレームワークであるFedDUMAPを提案する。
提案するFLモデルであるFedDUMAPは,従来の3つの手法を組み合わせることで,ベースラインアプローチと比較して性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-08-11T02:59:11Z) - FedRec+: Enhancing Privacy and Addressing Heterogeneity in Federated
Recommendation Systems [15.463595798992621]
FedRec+は、フェデレーションレコメンデーションシステムのためのアンサンブルフレームワークである。
プライバシーを強化し、エッジユーザの通信コストを低減します。
FedRec+の最先端性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-10-31T05:36:53Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Sparsified Secure Aggregation for Privacy-Preserving Federated Learning [1.2891210250935146]
セキュアアグリゲーションのための軽量な勾配スペーシフィケーションフレームワークを提案する。
提案手法は,セキュアアグリゲーションの通信オーバヘッドを大幅に低減できることを示す。
実験により,従来のセキュアなベンチマークと比較すると,我々のフレームワークは通信オーバーヘッドを最大7.8倍削減し,壁時計のトレーニング時間を1.13倍短縮することを示した。
論文 参考訳(メタデータ) (2021-12-23T22:44:21Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。