論文の概要: WeaveRec: An LLM-Based Cross-Domain Sequential Recommendation Framework with Model Merging
- arxiv url: http://arxiv.org/abs/2510.26546v1
- Date: Thu, 30 Oct 2025 14:37:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.859888
- Title: WeaveRec: An LLM-Based Cross-Domain Sequential Recommendation Framework with Model Merging
- Title(参考訳): WeaveRec: モデルマージを備えたLLMベースのクロスドメインシーケンスレコメンデーションフレームワーク
- Authors: Min Hou, Xin Liu, Le Wu, Chenyi He, Hao Liu, Zhi Li, Xin Li, Si Wei,
- Abstract要約: WeaveRecは、複数のLoRAモジュールにソースとターゲットのドメインデータをウィービング形式で相互にトレーニングする。
WeaveRecは、ターゲットドメインにおける期待されるエラーの上限を下げることができるという理論的な保証を提供する。
- 参考スコア(独自算出の注目度): 24.949880939628386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-Domain Sequential Recommendation (CDSR) seeks to improve user preference modeling by transferring knowledge from multiple domains. Despite the progress made in CDSR, most existing methods rely on overlapping users or items to establish cross-domain correlations-a requirement that rarely holds in real-world settings. The advent of large language models (LLM) and model-merging techniques appears to overcome this limitation by unifying multi-domain data without explicit overlaps. Yet, our empirical study shows that naively training an LLM on combined domains-or simply merging several domain-specific LLMs-often degrades performance relative to a model trained solely on the target domain. To address these challenges, we first experimentally investigate the cause of suboptimal performance in LLM-based cross-domain recommendation and model merging. Building on these insights, we introduce WeaveRec, which cross-trains multiple LoRA modules with source and target domain data in a weaving fashion, and fuses them via model merging. WeaveRec can be extended to multi-source domain scenarios and notably does not introduce additional inference-time cost in terms of latency or memory. Furthermore, we provide a theoretical guarantee that WeaveRec can reduce the upper bound of the expected error in the target domain. Extensive experiments on single-source, multi-source, and cross-platform cross-domain recommendation scenarios validate that WeaveRec effectively mitigates performance degradation and consistently outperforms baseline approaches in real-world recommendation tasks.
- Abstract(参考訳): クロスドメインシークエンシャルレコメンデーション(CDSR)は、複数のドメインから知識を転送することで、ユーザの好みのモデリングを改善することを目指している。
CDSRの進歩にもかかわらず、既存のほとんどのメソッドは、実際の設定ではめったに持たないクロスドメイン相関を確立するために、重複するユーザやアイテムに依存している。
大規模言語モデル(LLM)とモデルマージ技術の出現は、明示的な重複なしに複数のドメインデータを統一することで、この制限を克服しているように見える。
しかし、我々の実証実験により、LLMを組み合わせたドメインでネーティブにトレーニングするか、あるいは単純に複数のドメイン固有のLLMをマージするだけで、ターゲットドメインでのみトレーニングされたモデルと比較して性能が劣化することが示された。
これらの課題に対処するために,我々はまず,LLMに基づくクロスドメインレコメンデーションとモデルマージにおいて,最適以下の性能の原因を実験的に検討した。
これらの洞察に基づいてWeaveRecを導入し、複数のLoRAモジュールをソースとターゲットのドメインデータをウィービング形式で相互にトレーニングし、モデルをマージすることでそれらを融合させる。
WeaveRecは、マルチソースのドメインシナリオに拡張することができる。
さらに、WeaveRecがターゲット領域における期待されるエラーの上限を下げることができるという理論的保証を提供する。
単一ソース、マルチソース、クロスプラットフォームのクロスドメインレコメンデーションシナリオに関する大規模な実験は、WeaveRecがパフォーマンス劣化を効果的に軽減し、現実世界のレコメンデーションタスクにおけるベースラインアプローチを一貫して上回っていることを検証します。
関連論文リスト
- DmC: Nearest Neighbor Guidance Diffusion Model for Offline Cross-domain Reinforcement Learning [11.290019540058625]
クロスドメインオフライン強化学習(RL)は、追加のオフラインソースデータセットを利用することで、サンプル効率の向上を目指している。
DmCは、限られたターゲットサンプルを持つクロスドメインオフラインRLのための新しいフレームワークである。
論文 参考訳(メタデータ) (2025-07-28T03:34:15Z) - Generative Multi-Target Cross-Domain Recommendation [48.54929268144516]
本稿では、多目的クロスドメインレコメンデーションのためのジェネレーティブパラダイムベースのアプローチであるGCCを紹介する。
GMCの中核となる考え方は、意味的に定量化された離散アイテム識別子を多分野知識を統合する媒体として活用することである。
5つの公開データセットに関する大規模な実験は、GCCの有効性を実証している。
論文 参考訳(メタデータ) (2025-07-17T07:44:05Z) - LLM-Enhanced Multimodal Fusion for Cross-Domain Sequential Recommendation [32.40055370439922]
クロスドメインシークエンシャルレコメンデーション(CDSR)は、複数のドメインにわたる歴史的なインタラクションを活用することで、ユーザの振る舞いを予測する。
我々は,LLM-EMF(クロスドメインシーケンスレコメンデーション)のためのLLM強化多モード核融合を提案する。
LLM-EMFは、LLM(Large Language Models)の知識でテキスト情報を強化する新しい高度なアプローチである。
論文 参考訳(メタデータ) (2025-06-22T09:53:21Z) - Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - Cross-Domain Recommendation Meets Large Language Models [3.1519384727993582]
クロスドメインレコメンデーション(CDR)がコールドスタート問題に対する有望な解決策として登場した。
既存のCDRモデルは複雑なニューラルネットワーク、大規模なデータセット、重要な計算資源に依存している。
本研究では,大規模言語モデル(LLM)の推論機能を活用し,その性能をCDR領域で検証する。
論文 参考訳(メタデータ) (2024-11-29T17:25:00Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
性能ギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - SepRep-Net: Multi-source Free Domain Adaptation via Model Separation And Reparameterization [75.74369886582394]
本稿では,SepRep-Netと呼ばれる新しいフレームワークを提案する。
SepRep-Netは複数の既存モデルを統合ネットワークに再組み立て、別々の経路(分離)を維持した。
SepRep-Net は、1) 効果、2) 目標領域での競争性能、2) 効率、低い計算コスト、3) 一般化可能性、既存のソリューションよりも多くのソース知識を維持する。
論文 参考訳(メタデータ) (2024-02-13T06:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。