論文の概要: FedUTR: Federated Recommendation with Augmented Universal Textual Representation for Sparse Interaction Scenarios
- arxiv url: http://arxiv.org/abs/2604.07351v1
- Date: Thu, 29 Jan 2026 08:55:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.388803
- Title: FedUTR: Federated Recommendation with Augmented Universal Textual Representation for Sparse Interaction Scenarios
- Title(参考訳): FedUTR:スパースインタラクションシナリオのための拡張ユニバーサルテキスト表現によるフェデレーション勧告
- Authors: Kang Fu, Honglei Zhang, Zikai Zhang, Jundong Chen, Xin Zhou, Zhiqi Shen, Dusit Niyato, Yidong Li,
- Abstract要約: フェデレーションレコメンデーション(FR)は、デバイス上のプライバシ保護パラダイムとして登場した。
本稿では,対話行動の補完として項目文表現を取り入れたFedUTRという新しい手法を提案する。
提案手法は,SOTAベースラインと比較して,全データセットの最大59%の改善を達成し,優れた性能を実現する。
- 参考スコア(独自算出の注目度): 58.33672784127872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommendations (FRs) have emerged as an on-device privacy-preserving paradigm, attracting considerable attention driven by rising demands for data security. Existing FRs predominantly adapt ID embeddings to represent items, making the quality of item embeddings entirely dependent on users' historical behaviors. However, we empirically observe that this pattern leads to suboptimal recommendation performance under high data sparsity scenarios, due to its strong reliance on historical interactions. To address this issue, we propose a novel method named FedUTR, which incorporates item textual representations as a complement to interaction behaviors, aiming to enhance model performance under high data sparsity. Specifically, we utilize textual modality as the universal representation to capture generic item knowledge, and design a Collaborative Information Fusion Module (CIFM) to complement each user's personalized interaction information. Besides, we introduce a Local Adaptation Module (LAM) that adaptively exploits the off-the-shelf local model to efficiently preserve client-specific personalized preferences. Moreover, we propose a variant of FedUTR, termed FedUTR-SAR, which incorporates a sparsity-aware resnet component to granularly balance universal and personalized information. The convergence analysis proves theoretical guarantees for the effectiveness of FedUTR. Extensive experiments on four real-world datasets show that our method achieves superior performance, with improvements of up to 59% across all datasets compared to the SOTA baselines.
- Abstract(参考訳): フェデレーションレコメンデーション(FR)は、オンデバイスプライバシ保護パラダイムとして登場し、データセキュリティの要求が高まり、かなりの注目を集めている。
既存のFRはIDの埋め込みをアイテムに適応させ、アイテムの埋め込みの質はユーザーの過去の行動に完全に依存する。
しかし、このパターンは、歴史的相互作用に強く依存しているため、高いデータ空間性シナリオ下での最適以下のレコメンデーション性能につながることを実証的に観察する。
本稿では,対話行動の補完として項目テキスト表現を組み込んだFedUTRという新しい手法を提案する。
具体的には、テキストモダリティを汎用的な表現として活用し、汎用アイテムの知識を捉え、各ユーザのパーソナライズされたインタラクション情報を補完する協調情報融合モジュール(CIFM)を設計する。
さらに、既製のローカルモデルを適応的に活用してクライアント固有のパーソナライズされた好みを効率的に保存するローカル適応モジュール(LAM)を導入する。
また,FedUTR-SAR(FedUTR-SAR)の変種を提案する。
収束解析は、FedUTRの有効性の理論的保証を証明している。
実世界の4つのデータセットに対する大規模な実験により,SOTAベースラインと比較して最大59%の改善が達成された。
関連論文リスト
- FedReFT: Federated Representation Fine-Tuning with All-But-Me Aggregation [12.544628972135905]
本稿では,クライアントの隠れ表現を微調整する新しい手法であるFederated Representation Fine-Tuning(FedReFT)を紹介する。
FedReFTは、隠された表現を直接操作するためにスパース介入層を適用し、軽量でセマンティックにリッチな微調整の代替を提供する。
We evaluate FedReFT on commonsense reasoning, arithmetic reasoning, instruction-tuning, and GLUE。
論文 参考訳(メタデータ) (2025-08-27T22:03:19Z) - Federated Consistency- and Complementarity-aware Consensus-enhanced Recommendation [35.78577182946339]
個人化されたFedRecのための textbfFederated textbfConsistency- and textbfComplementarity-aware textbfConsensus-enhanced textbfRecommendation (Fed3CR) 法を提案する。
4つの実世界のデータセットの実験は、Fed3CRの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-08-27T08:47:12Z) - FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Self-Supervised Hypergraph Transformer for Recommender Systems [25.07482350586435]
自己監督型ハイパーグラフ変換器(SHT)
自己監督型ハイパーグラフ変換器(SHT)
ユーザ-テム相互作用グラフ上のデータ拡張のために,クロスビュー生成型自己教師型学習コンポーネントを提案する。
論文 参考訳(メタデータ) (2022-07-28T18:40:30Z) - CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for
Natural Language Understanding [67.61357003974153]
我々はCoDAと呼ばれる新しいデータ拡張フレームワークを提案する。
CoDAは、複数の変換を有機的に統合することで、多種多様な情報付加例を合成する。
すべてのデータサンプルのグローバルな関係を捉えるために、対照的な正則化の目的を導入する。
論文 参考訳(メタデータ) (2020-10-16T23:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。