論文の概要: MergeRec: Model Merging for Data-Isolated Cross-Domain Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.01753v1
- Date: Mon, 05 Jan 2026 03:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.746994
- Title: MergeRec: Model Merging for Data-Isolated Cross-Domain Sequential Recommendation
- Title(参考訳): MergeRec: データ分離型クロスドメインシーケンスレコメンデーションのためのモデルマージ
- Authors: Hyunsoo Kim, Jaewan Moon, Seongmin Park, Jongwuk Lee,
- Abstract要約: ドメイン間のシーケンシャルなレコメンデーションは、この問題に対処するための有望な研究方向として現れている。
本稿では,新しい現実的な問題設定の下でのモデルマージに基づく新しいフレームワークであるMergeRecを提案する。
MergeRecは継続的に優れたパフォーマンスを達成し、Recall@10では平均17.21%の改善を実現している。
- 参考スコア(独自算出の注目度): 14.573099220558765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern recommender systems trained on domain-specific data often struggle to generalize across multiple domains. Cross-domain sequential recommendation has emerged as a promising research direction to address this challenge; however, existing approaches face fundamental limitations, such as reliance on overlapping users or items across domains, or unrealistic assumptions that ignore privacy constraints. In this work, we propose a new framework, MergeRec, based on model merging under a new and realistic problem setting termed data-isolated cross-domain sequential recommendation, where raw user interaction data cannot be shared across domains. MergeRec consists of three key components: (1) merging initialization, (2) pseudo-user data construction, and (3) collaborative merging optimization. First, we initialize a merged model using training-free merging techniques. Next, we construct pseudo-user data by treating each item as a virtual sequence in each domain, enabling the synthesis of meaningful training samples without relying on real user interactions. Finally, we optimize domain-specific merging weights through a joint objective that combines a recommendation loss, which encourages the merged model to identify relevant items, and a distillation loss, which transfers collaborative filtering signals from the fine-tuned source models. Extensive experiments demonstrate that MergeRec not only preserves the strengths of the original models but also significantly enhances generalizability to unseen domains. Compared to conventional model merging methods, MergeRec consistently achieves superior performance, with average improvements of up to 17.21% in Recall@10, highlighting the potential of model merging as a scalable and effective approach for building universal recommender systems. The source code is available at https://github.com/DIALLab-SKKU/MergeRec.
- Abstract(参考訳): ドメイン固有のデータに基づいてトレーニングされた現代のレコメンデータシステムは、複数のドメインにまたがる一般化に苦慮することが多い。
ドメイン間のシーケンシャルなレコメンデーションは、この問題に対処するための有望な研究方向として現れているが、既存のアプローチでは、重複するユーザやドメイン間のアイテムへの依存や、プライバシー制約を無視した非現実的な仮定など、基本的な制限に直面している。
本稿では,データ分離型クロスドメインシーケンシャルレコメンデーションと呼ばれる,ドメイン間での生のユーザインタラクションデータを共有できない新しい現実的な問題設定の下で,モデルマージに基づく新たなフレームワークであるMergeRecを提案する。
MergeRecは、(1)初期化のマージ、(2)擬似ユーザデータ構築、(3)共同マージ最適化の3つの重要なコンポーネントから構成される。
まず、トレーニングフリーマージ手法を用いて、マージモデルを初期化する。
次に、各項目を仮想シーケンスとして扱うことで擬似ユーザデータを構築し、実際のユーザインタラクションに頼ることなく有意義なトレーニングサンプルを合成する。
最後に, 提案手法を用いて, 提案モデルに関連項目の同定を奨励する推薦損失と, 微調整されたソースモデルから協調フィルタリング信号を伝達する蒸留損失とを組み合わせ, ドメイン固有の重み付けを最適化する。
大規模な実験により、MergeRecは元のモデルの強みを保存するだけでなく、目に見えない領域への一般化性を大幅に向上させることが示された。
従来のモデルマージ手法と比較して、MergeRecは一貫して優れたパフォーマンスを達成し、Recall@10では平均17.21%の改善を実現し、ユニバーサルレコメンダシステムを構築するためのスケーラブルで効果的なアプローチとしてモデルマージの可能性を強調している。
ソースコードはhttps://github.com/DIALLab-SKKU/MergeRecで入手できる。
関連論文リスト
- WeaveRec: An LLM-Based Cross-Domain Sequential Recommendation Framework with Model Merging [24.949880939628386]
WeaveRecは、複数のLoRAモジュールにソースとターゲットのドメインデータをウィービング形式で相互にトレーニングする。
WeaveRecは、ターゲットドメインにおける期待されるエラーの上限を下げることができるという理論的な保証を提供する。
論文 参考訳(メタデータ) (2025-10-30T14:37:15Z) - Intrinsic Training Signals for Federated Learning Aggregation [13.540945877050525]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
この研究は、既存のトレーニング信号だけで効果的なモデルマージが達成できることを実証している。
論文 参考訳(メタデータ) (2025-07-09T13:03:23Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - FedCIA: Federated Collaborative Information Aggregation for Privacy-Preserving Recommendation [28.8047308546416]
プライバシー保護のためのフェデレーション・コラボレーティブ・インフォメーション・アグリゲーション(FedCIA)手法を導入する。
FedCIAは、クライアントが埋め込みを統一されたベクトル空間に制約することなく、ローカルモデルを調整できる。
直接和による情報損失を軽減し、個々のクライアントのパーソナライズされた埋め込み分布を保存し、パラメータフリーモデルの集約をサポートする。
論文 参考訳(メタデータ) (2025-04-19T06:59:34Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - Model Merging and Safety Alignment: One Bad Model Spoils the Bunch [70.614652904151]
LLM(Merging Large Language Models)は、複数の専門家のLLMを1つの汎用モデルに結合するコスト効率のよい手法である。
現在のアプローチでは、マージ時の安全性の整合性の重要性を見落とし、非常に不整合のモデルに繋がることが多い。
我々は,既存の手法がドメインの専門知識を伝達するだけでなく,ミスアライメントを伝播することを示すために,いくつかの一般的なモデルマージ手法を評価した。
論文 参考訳(メタデータ) (2024-06-20T17:59:58Z) - On Generalization in Coreference Resolution [66.05112218880907]
モデルの市販性能を評価するため、異なるドメインを対象とした8つのコア参照解決データセットを統合する。
次に、それらのドメイン、アノテーションガイドライン、メタデータが異なるにもかかわらず、トレーニングのために3つのデータセットを混ぜて、単一のモデルを共同でトレーニングする方法を提案する。
ゼロショット環境では、単一のデータセット転送でトレーニングされたモデルが不十分であるのに対して、共同トレーニングの成果によって全体的なパフォーマンスが改善されていることが分かりました。
論文 参考訳(メタデータ) (2021-09-20T16:33:22Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。