論文の概要: Serendipitous Recommendation with Multimodal LLM
- arxiv url: http://arxiv.org/abs/2506.08283v1
- Date: Mon, 09 Jun 2025 23:13:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.869222
- Title: Serendipitous Recommendation with Multimodal LLM
- Title(参考訳): マルチモーダルLCMによるセレンディピティーレコメンデーション
- Authors: Haoting Wang, Jianling Wang, Hao Li, Fangjun Yi, Mengyu Fu, Youwei Zhang, Yifan Liu, Liang Liu, Minmin Chen, Ed H. Chi, Lichan Hong, Haokai Lu,
- Abstract要約: MLLM(Multimodal Large Language Models)は、セレンディピティーに必要な世界的知識とマルチモーダル理解を持つ。
本稿では,MLLMが従来の推薦モデルに対して高レベルなガイダンスを提供する,新しい階層型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 34.247253038069914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional recommendation systems succeed in identifying relevant content but often fail to provide users with surprising or novel items. Multimodal Large Language Models (MLLMs) possess the world knowledge and multimodal understanding needed for serendipity, but their integration into billion-item-scale platforms presents significant challenges. In this paper, we propose a novel hierarchical framework where fine-tuned MLLMs provide high-level guidance to conventional recommendation models, steering them towards more serendipitous suggestions. This approach leverages MLLM strengths in understanding multimodal content and user interests while retaining the efficiency of traditional models for item-level recommendation. This mitigates the complexity of applying MLLMs directly to vast action spaces. We also demonstrate a chain-of-thought strategy enabling MLLMs to discover novel user interests by first understanding video content and then identifying relevant yet unexplored interest clusters. Through live experiments within a commercial short-form video platform serving billions of users, we show that our MLLM-powered approach significantly improves both recommendation serendipity and user satisfaction.
- Abstract(参考訳): 従来のレコメンデーションシステムは、関連コンテンツを特定することに成功しているが、驚きや斬新なアイテムをユーザに提供できないことが多い。
MLLM(Multimodal Large Language Models)は、セレンディピティーに必要な世界的知識とマルチモーダル理解を持っているが、数十億規模のプラットフォームへの統合は大きな課題である。
本稿では,よりセレンディピティーな提案に向け,従来のレコメンデーションモデルに対して高レベルなガイダンスを提供する階層型フレームワークを提案する。
このアプローチは、アイテムレベルのレコメンデーションのために従来のモデルの効率を維持しながら、マルチモーダルコンテンツとユーザ関心を理解する上で、MLLMの強みを活用する。
これにより、MLLMを巨大なアクション空間に直接適用する複雑性が軽減される。
また,MLLMがビデオコンテンツを最初に理解し,関連性のない関心クラスタを識別することで,新たなユーザ興味を発見できるチェーン・オブ・シークレット戦略を実証する。
数十億のユーザを対象とする商用のショートフォームビデオプラットフォームのライブ実験を通じて,MLLMによるアプローチは,推奨セレンディピティーとユーザ満足度の両方を著しく改善することを示す。
関連論文リスト
- Harnessing Multimodal Large Language Models for Multimodal Sequential Recommendation [21.281471662696372]
本稿では,MLLM-MSRモデルを提案する。
動的ユーザの嗜好を捉えるために,2段階のユーザ選好要約法を設計する。
次に、ユーザ嗜好の動的変化を捉えるために、繰り返しユーザー嗜好要約生成パラダイムを用いる。
論文 参考訳(メタデータ) (2024-08-19T04:44:32Z) - Fine-tuning Multimodal Large Language Models for Product Bundling [53.01642741096356]
Bundle-MLLMは,大規模言語モデル(LLM)をハイブリットアイテムトークン化アプローチにより微調整する新しいフレームワークである。
具体的には、テキスト、メディア、およびリレーショナルデータを統一トークン化に統合し、テキストトークンと非テキストトークンを区別するソフトな分離トークンを導入する。
1)バンドルパターンを学習し,2)製品バンドル固有のマルチモーダルセマンティック理解の強化を行う。
論文 参考訳(メタデータ) (2024-07-16T13:30:14Z) - NoteLLM-2: Multimodal Large Representation Models for Recommendation [71.87790090964734]
大規模言語モデル(LLM)は、テキスト理解や埋め込みタスクにおいて、例外的な習熟度を示している。
マルチモーダル表現のポテンシャル、特にアイテムツーイテム(I2I)レコメンデーションについては、未解明のままである。
本稿では,既存のLLMと視覚エンコーダの統合をカスタマイズし,効率的なマルチモーダル表現を実現するエンド・ツー・エンドのファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T03:24:01Z) - Towards Vision Enhancing LLMs: Empowering Multimodal Knowledge Storage
and Sharing in LLMs [72.49064988035126]
マルチモーダル大規模言語モデル(MLLM)の強化を目的としたMKS2という手法を提案する。
具体的には、LLMの内部ブロックに組み込まれたコンポーネントであるModular Visual Memoryを導入し、オープンワールドの視覚情報を効率的に保存するように設計されている。
実験により,MKS2は物理的・常識的な知識を必要とする文脈において,LLMの推論能力を大幅に増強することが示された。
論文 参考訳(メタデータ) (2023-11-27T12:29:20Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。