論文の概要: Empowering Large Language Model for Sequential Recommendation via Multimodal Embeddings and Semantic IDs
- arxiv url: http://arxiv.org/abs/2509.02017v1
- Date: Tue, 02 Sep 2025 07:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.931812
- Title: Empowering Large Language Model for Sequential Recommendation via Multimodal Embeddings and Semantic IDs
- Title(参考訳): マルチモーダル埋め込みとセマンティックIDによるシーケンスレコメンデーションのための大規模言語モデルの構築
- Authors: Yuhao Wang, Junwei Pan, Xinhang Li, Maolin Wang, Yuan Wang, Yue Liu, Dapeng Liu, Jie Jiang, Xiangyu Zhao,
- Abstract要約: シークエンシャルレコメンデーション(SR)は,ユーザの動的関心や時系列パターンを過去のインタラクションに基づいて捉えることを目的としている。
MME-SIDは多モード埋め込みと量子埋め込みを統合し、埋め込み崩壊を緩和する。
3つの公開データセットに対する大規模な実験により、MME-SIDの優れた性能が検証された。
- 参考スコア(独自算出の注目度): 28.752042722391934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation (SR) aims to capture users' dynamic interests and sequential patterns based on their historical interactions. Recently, the powerful capabilities of large language models (LLMs) have driven their adoption in SR. However, we identify two critical challenges in existing LLM-based SR methods: 1) embedding collapse when incorporating pre-trained collaborative embeddings and 2) catastrophic forgetting of quantized embeddings when utilizing semantic IDs. These issues dampen the model scalability and lead to suboptimal recommendation performance. Therefore, based on LLMs like Llama3-8B-instruct, we introduce a novel SR framework named MME-SID, which integrates multimodal embeddings and quantized embeddings to mitigate embedding collapse. Additionally, we propose a Multimodal Residual Quantized Variational Autoencoder (MM-RQ-VAE) with maximum mean discrepancy as the reconstruction loss and contrastive learning for alignment, which effectively preserve intra-modal distance information and capture inter-modal correlations, respectively. To further alleviate catastrophic forgetting, we initialize the model with the trained multimodal code embeddings. Finally, we fine-tune the LLM efficiently using LoRA in a multimodal frequency-aware fusion manner. Extensive experiments on three public datasets validate the superior performance of MME-SID thanks to its capability to mitigate embedding collapse and catastrophic forgetting. The implementation code and datasets are publicly available for reproduction: https://github.com/Applied-Machine-Learning-Lab/MME-SID.
- Abstract(参考訳): シークエンシャルレコメンデーション(SR)は,ユーザの動的関心や時系列パターンを過去のインタラクションに基づいて捉えることを目的としている。
近年、大きな言語モデル(LLM)の強力な能力は、SRでの採用を促している。
しかし、既存のLLMベースのSR手法における2つの重要な課題を特定した。
1) 予め訓練した組込みと組込みによる埋込み崩壊
2) セマンティックIDを利用する場合の量子化埋め込みの破滅的忘れ
これらの問題はモデルのスケーラビリティを低下させ、最適以下のレコメンデーションパフォーマンスをもたらします。
したがって、Llama3-8B-instructのようなLLMに基づいて、マルチモーダル埋め込みと量子埋め込みを統合して埋め込み崩壊を緩和するMME-SIDと呼ばれる新しいSRフレームワークを導入する。
さらに,アライメントのためのアライメントにおける再構成損失とコントラスト学習として,最大平均誤差を持つMM-RQ-VAE(Multimodal Residual Quantized Variational Autoencoder)を提案する。
破滅的な忘れをさらに軽減するために、訓練されたマルチモーダルコード埋め込みを用いてモデルを初期化する。
最後に、LoRAをマルチモーダル周波数対応核融合方式で効率的にLLMを微調整する。
3つの公開データセットに対する大規模な実験は、埋め込み崩壊と破滅的な忘れを緩和する能力により、MME-SIDの優れた性能を評価する。
実装コードとデータセットは、 https://github.com/Applied-Machine-Learning-Lab/MME-SID で公開されている。
関連論文リスト
- FindRec: Stein-Guided Entropic Flow for Multi-Modal Sequential Recommendation [57.577843653775]
textbfFindRec (textbfFlexible unified textbfinformation textbfdisentanglement for multi-modal sequence textbfRecommendation)を提案する。
Stein kernel-based Integrated Information Coordination Module (IICM) は理論上、マルチモーダル特徴とIDストリーム間の分散一貫性を保証する。
マルチモーダル特徴を文脈的関連性に基づいて適応的にフィルタリング・結合するクロスモーダル・エキスパート・ルーティング機構。
論文 参考訳(メタデータ) (2025-07-07T04:09:45Z) - MoCa: Modality-aware Continual Pre-training Makes Better Bidirectional Multimodal Embeddings [75.0617088717528]
MoCaは、トレーニング済みのVLMバックボーンを効果的な双方向埋め込みモデルに変換するためのフレームワークである。
MoCaは、MMEBとViDoRe-v2ベンチマークのパフォーマンスを継続的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-06-29T06:41:00Z) - Towards Robust Multimodal Emotion Recognition under Missing Modalities and Distribution Shifts [8.259321830040204]
本稿では,モダリティの欠如とOF-Distribution(OOD)データの両方を同時に扱うための新しいフレームワークを提案する。
CIDerはMSSD(Model-Specific Self-Distillation)モジュールとMACI(Model-Agnostic Causal Inference)モジュールという2つの重要なコンポーネントを統合している。
実験の結果、CIDerはRMFMとOODの両方のシナリオでロバストな性能を示し、パラメータは少なく、最先端の手法に比べて訓練が速い。
論文 参考訳(メタデータ) (2025-06-12T07:58:17Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - Pre-train, Align, and Disentangle: Empowering Sequential Recommendation with Large Language Models [26.331324261505486]
Sequential Recommendation (SR) は、ユーザの過去のインタラクションにおけるシーケンシャルなパターンを活用して、ユーザの好みを正確に追跡することを目的としている。
大規模言語モデル(LLM)の有効性が証明されているにもかかわらず、商用レコメンデータシステムへの統合は妨げられている。
我々は,LLMを用いたSRモデルを強化するために,新しいPri-train,Align,Disentangle(PAD)フレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-05T12:17:56Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。