論文の概要: LMMRec: LLM-driven Motivation-aware Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2602.05474v1
- Date: Thu, 05 Feb 2026 09:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.861522
- Title: LMMRec: LLM-driven Motivation-aware Multimodal Recommendation
- Title(参考訳): LMMRec: LLM駆動型モチベーション対応マルチモーダルレコメンデーション
- Authors: Yicheng Di, Zhanjie Zhang, Yun Wangc, Jinren Liue, Jiaqi Yanf, Jiyu Wei, Xiangyu Chend, Yuan Liu,
- Abstract要約: モチベーションに基づくレコメンデーションシステムは、ユーザの行動ドライバーを明らかにする。
モチベーションモデリング(Motivation Modeling)は、意思決定とコンテンツ優先に不可欠なもので、レコメンデーション生成を説明する。
既存の方法は、しばしば対話データから潜在変数としてモチベーションを扱い、レビューテキストのような異種情報を無視する。
本稿では,大規模言語モデルを利用したモデル依存型フレームワークLMMRecについて,深いセマンティクスの先行とモチベーション理解のために提案する。
- 参考スコア(独自算出の注目度): 7.253062935251275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivation-based recommendation systems uncover user behavior drivers. Motivation modeling, crucial for decision-making and content preference, explains recommendation generation. Existing methods often treat motivation as latent variables from interaction data, neglecting heterogeneous information like review text. In multimodal motivation fusion, two challenges arise: 1) achieving stable cross-modal alignment amid noise, and 2) identifying features reflecting the same underlying motivation across modalities. To address these, we propose LLM-driven Motivation-aware Multimodal Recommendation (LMMRec), a model-agnostic framework leveraging large language models for deep semantic priors and motivation understanding. LMMRec uses chain-of-thought prompting to extract fine-grained user and item motivations from text. A dual-encoder architecture models textual and interaction-based motivations for cross-modal alignment, while Motivation Coordination Strategy and Interaction-Text Correspondence Method mitigate noise and semantic drift through contrastive learning and momentum updates. Experiments on three datasets show LMMRec achieves up to a 4.98\% performance improvement.
- Abstract(参考訳): モチベーションに基づくレコメンデーションシステムは、ユーザの行動ドライバーを明らかにする。
モチベーションモデリング(Motivation Modeling)は、意思決定とコンテンツ優先に不可欠なもので、レコメンデーション生成を説明する。
既存の方法は、しばしば対話データから潜在変数としてモチベーションを扱い、レビューテキストのような異種情報を無視する。
マルチモーダルモチベーション融合では、2つの課題が生じる。
1)騒音下で安定なクロスモーダルアライメントを実現すること、及び
2)モダリティにまたがる同じモチベーションを反映した特徴の同定。
そこで本研究では,LLM をベースとしたマルチモーダルレコメンデーション (LMMRec) を提案する。
LMMRecは、テキストからきめ細かいユーザとアイテムのモチベーションを抽出するために、チェーン・オブ・シークレット・プロンプトを使用する。
デュアルエンコーダアーキテクチャは、相互モーダルアライメントのためのテキストとインタラクションに基づくモチベーションをモデル化する一方、モチベーションコーディネーション戦略とインタラクション-テキスト対応手法は、対照的な学習とモーメント更新を通じてノイズとセマンティックドリフトを緩和する。
3つのデータセットの実験では、LMMRecは最大4.98倍のパフォーマンス向上を達成した。
関連論文リスト
- Beyond Unimodal Shortcuts: MLLMs as Cross-Modal Reasoners for Grounded Named Entity Recognition [51.68340973140949]
GMNER(Multimodal Named Entity Recognition)は、テキストベースのエンティティを抽出し、セマンティックカテゴリを割り当て、それらを対応する視覚領域に接地することを目的としている。
MLLMは、視覚バイアスやテキストバイアスを含む$textbfmodality bias$を示す。
本稿では,モダリティを考慮した一貫性推論(bfMCR$)を提案する。
論文 参考訳(メタデータ) (2026-02-04T12:12:49Z) - From Sparse Decisions to Dense Reasoning: A Multi-attribute Trajectory Paradigm for Multimodal Moderation [59.27094165576015]
疎度な意思決定から高密度な推論トレースへ移行する新しい学習パラダイム(UniMod)を提案する。
モノリシックな意思決定タスクを多次元境界学習プロセスに再構成し,エビデンス,モダリティ評価,リスクマッピング,政策決定,応答生成を含む構造化軌道を構築する。
タスク固有のパラメータを分離し、トレーニングダイナミクスを再バランスさせ、マルチタスク学習における多様な目的間の干渉を効果的に解消する、特別な最適化戦略を導入する。
論文 参考訳(メタデータ) (2026-01-28T09:29:40Z) - Progressive Semantic Residual Quantization for Multimodal-Joint Interest Modeling in Music Recommendation [6.790539226766362]
本稿では,2段階の新たなマルチモーダルレコメンデーションフレームワークを提案する。
最初の段階では、モーダル固有およびモーダルジョイントのセマンティックIDを生成する。
第2段階では、ユーザのマルチモーダルな関心をモデル化するために、マルチコードブックのクロスアテンションネットワークが設計されている。
論文 参考訳(メタデータ) (2025-08-28T02:16:57Z) - M-$LLM^3$REC: A Motivation-Aware User-Item Interaction Framework for Enhancing Recommendation Accuracy with LLMs [0.5735035463793009]
本稿では,M-$LLM3$RECと呼ばれる新しいレコメンデーションフレームワークを提案する。
モチベーション駆動のセマンティックモデリングを強調することで、M-$LLM3$RECは堅牢でパーソナライズされ、一般化可能なレコメンデーションを示す。
論文 参考訳(メタデータ) (2025-08-21T05:50:13Z) - MoCa: Modality-aware Continual Pre-training Makes Better Bidirectional Multimodal Embeddings [75.0617088717528]
MoCaは、トレーニング済みのVLMバックボーンを効果的な双方向埋め込みモデルに変換するためのフレームワークである。
MoCaは、MMEBとViDoRe-v2ベンチマークのパフォーマンスを継続的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-06-29T06:41:00Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - BBQRec: Behavior-Bind Quantization for Multi-Modal Sequential Recommendation [15.818669767036592]
本稿では,2列列の量子化とセマンティックス・アウェア・シーケンス・モデリングを備えたBBQRec(Behavior-Bind Multi-modal Quantization for Sequential Recommendation)を提案する。
BBQRecは、コントラストのあるコードブック学習を通じて、ノイズの多いモダリティ特有の特徴からモダリティに依存しない行動パターンを分離する。
我々は、量子化された意味関係を用いて自己注意スコアを動的に調整する離散化類似度再重み付け機構を設計する。
論文 参考訳(メタデータ) (2025-04-09T07:19:48Z) - SDRT: Enhance Vision-Language Models by Self-Distillation with Diverse Reasoning Traces [11.462550020102935]
視覚言語モデルのための新しい自己蒸留フレームワークを提案する。
我々は、多様なコンテキスト内質問を生成するために、視覚的推論タスクに適したプロンプトライブラリを採用する。
次に,2段階の推論手法を用いて推論誘導応答を導出する。
これらの反応は自己蒸留に使用され、モデルが推論プロセスの内部化を可能にする。
論文 参考訳(メタデータ) (2025-03-03T17:24:42Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。