論文の概要: FeDecider: An LLM-Based Framework for Federated Cross-Domain Recommendation
- arxiv url: http://arxiv.org/abs/2602.16034v1
- Date: Tue, 17 Feb 2026 21:42:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.444914
- Title: FeDecider: An LLM-Based Framework for Federated Cross-Domain Recommendation
- Title(参考訳): FeDecider: フェデレーション・クロスドメイン勧告のためのLLMベースのフレームワーク
- Authors: Xinrui He, Ting-Wei Li, Tianxin Wei, Xuying Ning, Xinyu He, Wenxuan Bao, Hanghang Tong, Jingrui He,
- Abstract要約: 大規模言語モデル(LLM)ベースのレコメンデーションモデルは、素晴らしいパフォーマンスを示している。
We propose a LLM-based framework for Federated cross- domain recommendation, FeDecider。
多様なデータセットにわたる大規模な実験により、提案したFeDeciderの有効性が検証された。
- 参考スコア(独自算出の注目度): 75.50721642765994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated cross-domain recommendation (Federated CDR) aims to collaboratively learn personalized recommendation models across heterogeneous domains while preserving data privacy. Recently, large language model (LLM)-based recommendation models have demonstrated impressive performance by leveraging LLMs' strong reasoning capabilities and broad knowledge. However, adopting LLM-based recommendation models in Federated CDR scenarios introduces new challenges. First, there exists a risk of overfitting with domain-specific local adapters. The magnitudes of locally optimized parameter updates often vary across domains, causing biased aggregation and overfitting toward domain-specific distributions. Second, unlike traditional recommendation models (e.g., collaborative filtering, bipartite graph-based methods) that learn explicit and comparable user/item representations, LLMs encode knowledge implicitly through autoregressive text generation training. This poses additional challenges for effectively measuring the cross-domain similarities under heterogeneity. To address these challenges, we propose an LLM-based framework for federated cross-domain recommendation, FeDecider. Specifically, FeDecider tackles the challenge of scale-specific noise by disentangling each client's low-rank updates and sharing only their directional components. To handle the need for flexible and effective integration, each client further learns personalized weights that achieve the data-aware integration of updates from other domains. Extensive experiments across diverse datasets validate the effectiveness of our proposed FeDecider.
- Abstract(参考訳): フェデレーションクロスドメインレコメンデーション(フェデレーションCDR)は、データプライバシを保持しながら、異種ドメイン全体にわたるパーソナライズされたレコメンデーションモデルを協調的に学習することを目的としている。
近年,LLMの強い推論能力と幅広い知識を活用することで,大規模言語モデル(LLM)に基づくレコメンデーションモデルの性能が向上している。
しかし、Federated CDRシナリオにLLMベースのレコメンデーションモデルを採用することで、新たな課題がもたらされる。
まず、ドメイン固有のローカルアダプタでオーバーフィットするリスクがある。
局所的に最適化されたパラメータの更新の規模は、しばしばドメインによって異なり、偏りのある集約とドメイン固有の分布への過度な適合を引き起こす。
第二に、明示的かつ同等なユーザ/イテム表現を学習する従来のレコメンデーションモデル(コラボレーティブフィルタリング、二部グラフベースのメソッドなど)とは異なり、LLMは自己回帰テキスト生成トレーニングを通じて知識を暗黙的にエンコードする。
これにより、異質性の下でのドメイン間の類似性を効果的に測定する上で、さらなる課題が生じる。
これらの課題に対処するために、フェデシダ(FeDecider)というフェデシダ(FeDecider)の相互ドメインレコメンデーションのためのLLMベースのフレームワークを提案する。
具体的には、FeDeciderは、各クライアントの低ランク更新を分離し、指向性コンポーネントのみを共有することで、スケール固有のノイズに取り組む。
フレキシブルで効果的な統合の必要性に対処するために、各クライアントは、他のドメインからの更新のデータを意識した統合を実現するために、パーソナライズされたウェイトをさらに学習する。
多様なデータセットにわたる大規模な実験により、提案したFeDeciderの有効性が検証された。
関連論文リスト
- Replacing Parameters with Preferences: Federated Alignment of Heterogeneous Vision-Language Models [63.70401095689976]
パラメータを好みに置き換えることは、よりスケーラブルでプライバシに保護される未来を表している、と私たちは主張する。
ヘテロジニアスVLMのためのGRPOとMixture-of-Rewardsを用いた協調アライメントフレームワークであるMoRを提案する。
MoRは、一般化、堅牢性、およびクロスクライアント適応性において、連邦化されたアライメントベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2026-01-31T03:11:51Z) - WeaveRec: An LLM-Based Cross-Domain Sequential Recommendation Framework with Model Merging [24.949880939628386]
WeaveRecは、複数のLoRAモジュールにソースとターゲットのドメインデータをウィービング形式で相互にトレーニングする。
WeaveRecは、ターゲットドメインにおける期待されるエラーの上限を下げることができるという理論的な保証を提供する。
論文 参考訳(メタデータ) (2025-10-30T14:37:15Z) - Heterogeneous User Modeling for LLM-based Recommendation [70.52873882470328]
オープンドメインレコメンデーションを進める上で重要な課題は、ユーザの不均一な振る舞いからユーザの好みを効果的にモデル化することだ。
IDベースやセマンティックベースモデリングなど、既存のアプローチでは、一般化の貧弱さに悩まされている。
圧縮エンハンサーとロバストネスエンハンサーを組み込んだヘテロジニアス・ユーザ・モデリング(HUM)手法を提案する。
論文 参考訳(メタデータ) (2025-07-07T03:08:28Z) - LLM-Enhanced Multimodal Fusion for Cross-Domain Sequential Recommendation [32.40055370439922]
クロスドメインシークエンシャルレコメンデーション(CDSR)は、複数のドメインにわたる歴史的なインタラクションを活用することで、ユーザの振る舞いを予測する。
我々は,LLM-EMF(クロスドメインシーケンスレコメンデーション)のためのLLM強化多モード核融合を提案する。
LLM-EMFは、LLM(Large Language Models)の知識でテキスト情報を強化する新しい高度なアプローチである。
論文 参考訳(メタデータ) (2025-06-22T09:53:21Z) - Personalized Federated Fine-Tuning for LLMs via Data-Driven Heterogeneous Model Architectures [23.45003063073793]
フェデレートラーニング(FL)は、生データにアクセスすることなく、大規模言語モデルの協調的な微調整を可能にする。
既存のファインチューニングへのアプローチは通常、一様モデルアーキテクチャを採用する。
データ駆動の異種モデルアーキテクチャを実現する軽量なパーソナライズFLフレームワークであるFedAMoLEを提案する。
論文 参考訳(メタデータ) (2024-11-28T13:20:38Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - Diverse Preference Augmentation with Multiple Domains for Cold-start
Recommendations [92.47380209981348]
メタラーニングをベースとした多元的ドメインを用いた多元的推論拡張フレームワークを提案する。
我々は、疎結合の場合の過度な適合を扱うために、新しい関心領域において多様な評価を生成する。
これらの評価は、選好メタラーナーを学ぶためのメタトレーニング手順に導入され、優れた一般化能力が得られる。
論文 参考訳(メタデータ) (2022-04-01T10:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。