論文の概要: A Model-agnostic Strategy to Mitigate Embedding Degradation in Personalized Federated Recommendation
- arxiv url: http://arxiv.org/abs/2508.19591v1
- Date: Wed, 27 Aug 2025 06:03:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.508572
- Title: A Model-agnostic Strategy to Mitigate Embedding Degradation in Personalized Federated Recommendation
- Title(参考訳): 個人化Federated Recommendationにおける埋め込み劣化軽減のためのモデル非依存戦略
- Authors: Jiakui Shen, Yunqi Mi, Guoshuai Zhao, Jialie Shen, Xueming Qian,
- Abstract要約: パーソナライズされた埋め込みユーティリティを強化するための新しいモデルに依存しないFedRec戦略を提案する。
PLGCは、次元崩壊問題を緩和する連邦勧告における最初の研究である。
- 参考スコア(独自算出の注目度): 34.915843795521134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Centralized recommender systems encounter privacy leakage due to the need to collect user behavior and other private data. Hence, federated recommender systems (FedRec) have become a promising approach with an aggregated global model on the server. However, this distributed training paradigm suffers from embedding degradation caused by suboptimal personalization and dimensional collapse, due to the existence of sparse interactions and heterogeneous preferences. To this end, we propose a novel model-agnostic strategy for FedRec to strengthen the personalized embedding utility, which is called Personalized Local-Global Collaboration (PLGC). It is the first research in federated recommendation to alleviate the dimensional collapse issue. Particularly, we incorporate the frozen global item embedding table into local devices. Based on a Neural Tangent Kernel strategy that dynamically balances local and global information, PLGC optimizes personalized representations during forward inference, ultimately converging to user-specific preferences. Additionally, PLGC carries on a contrastive objective function to reduce embedding redundancy by dissolving dependencies between dimensions, thereby improving the backward representation learning process. We introduce PLGC as a model-agnostic personalized training strategy for federated recommendations that can be applied to existing baselines to alleviate embedding degradation. Extensive experiments on five real-world datasets have demonstrated the effectiveness and adaptability of PLGC, which outperforms various baseline algorithms.
- Abstract(参考訳): 集中型レコメンダシステムは、ユーザの行動やその他のプライベートデータを収集する必要があるため、プライバシー漏洩に遭遇する。
したがって、フェデレートされたレコメンデータシステム(FedRec)は、サーバに集約されたグローバルモデルを持つ有望なアプローチとなっている。
しかし、この分散トレーニングパラダイムは、スパース相互作用と異種嗜好の存在により、最適でないパーソナライゼーションと次元崩壊に起因する埋め込み劣化に悩まされる。
そこで我々は,Personalized Local-Global Collaboration (PLGC)と呼ばれるパーソナライズされた埋め込みユーティリティを強化するために,FedRecの新たなモデル非依存戦略を提案する。
これは、次元崩壊問題を緩和する連邦勧告における最初の研究である。
特に,凍結したグローバルアイテムの埋め込みテーブルをローカルデバイスに組み込む。
ローカルおよびグローバル情報を動的にバランスするNeural Tangent Kernel戦略に基づいて、PLGCは前方推論中にパーソナライズされた表現を最適化し、最終的にはユーザ固有の好みに収束する。
さらにPLGCは,次元間の依存関係を解消することにより,組込み冗長性を低減し,後方表現学習プロセスを改善するために,対照的な目的関数を担っている。
PLGCは,既存のベースラインに適用可能なフェデレーションのためのモデルに依存しないパーソナライズドトレーニング戦略として導入し,組込み劣化を緩和する。
5つの実世界のデータセットに対する大規模な実験はPLGCの有効性と適応性を実証した。
関連論文リスト
- Beyond Personalization: Federated Recommendation with Calibration via Low-rank Decomposition [18.323509259364908]
フェデレーションレコメンデーション(FR)は、レコメンデーションシステムにおけるユーザのプライバシを保護するための有望なパラダイムである。
グローバルに集約されたアイテムの埋め込みはユーザ埋め込みのスキューを誘導し、最適以下のパフォーマンスをもたらすことを実証的に見出した。
我々は、ユーザ埋め込みスキューを緩和し、パフォーマンス、効率、プライバシ間で望ましいトレードオフを実現するためにPFedCLRを提案する。
論文 参考訳(メタデータ) (2025-06-11T08:51:19Z) - Embed Progressive Implicit Preference in Unified Space for Deep Collaborative Filtering [13.24227546548424]
GNOLR(Generalized Neural Ordinal Logistic Regression)は、ユーザエンゲージメントの構造的進行を捉えるために提案されている。
GNOLRは予測精度を高め、ユーザのエンゲージメントの進行を捉え、検索プロセスを単純化する。
10の実世界のデータセットでの実験では、GNOLRは効率と適応性において最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-27T08:43:35Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Towards Federated Low-Rank Adaptation of Language Models with Rank Heterogeneity [12.515874333424929]
クライアント間の不均一なランクが不安定なパフォーマンスにつながることを観察する。
この不安定性は従来のゼロ・パディング・アグリゲーション・ストラテジーに起因している。
高品質なデータを持つクライアントからの貴重な情報をよりよく保持するレプリケーションベースのパディング戦略を提案する。
論文 参考訳(メタデータ) (2024-06-25T11:49:33Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。