論文の概要: DeepInterestGR: Mining Deep Multi-Interest Using Multi-Modal LLMs for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2602.18907v1
- Date: Sat, 21 Feb 2026 17:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.389218
- Title: DeepInterestGR: Mining Deep Multi-Interest Using Multi-Modal LLMs for Generative Recommendation
- Title(参考訳): DeepInterestGR: 生成レコメンデーションのためのマルチモーダルLCMを用いたディープマルチゲストマイニング
- Authors: Yangchen Zeng,
- Abstract要約: DeepInterestGRはジェネレーティブレコメンデーションフレームワークで3つの重要なイノベーションを紹介している。
我々は,マルチLLM の関心マイニング,奥行きラベルの深層関心,および関心度向上アイテムの離散化を活用している。
3つのAmazon Reviewベンチマークの実験では、DeepInterestGRが最先端のベースラインを一貫して上回っていることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent generative recommendation frameworks have demonstrated remarkable scaling potential by reformulating item prediction as autoregressive Semantic ID (SID) generation. However, existing methods primarily rely on shallow behavioral signals, encoding items solely through surface-level textual features such as titles and descriptions. This reliance results in a critical Shallow Interest problem: the model fails to capture the latent, semantically rich interests underlying user interactions, limiting both personalization depth and recommendation interpretability. DeepInterestGR introduces three key innovations: (1) Multi-LLM Interest Mining (MLIM): We leverage multiple frontier LLMs along with their multi-modal variants to extract deep textual and visual interest representations through Chain-of-Thought prompting. (2) Reward-Labeled Deep Interest (RLDI): We employ a lightweight binary classifier to assign reward labels to mined interests, enabling effective supervision signals for reinforcement learning. (3) Interest-Enhanced Item Discretization (IEID): The curated deep interests are encoded into semantic embeddings and quantized into SID tokens via RQ-VAE. We adopt a two-stage training pipeline: supervised fine-tuning aligns the generative model with deep interest signals and collaborative filtering patterns, followed by reinforcement learning with GRPO optimized by our Interest-Aware Reward. Experiments on three Amazon Review benchmarks demonstrate that DeepInterestGR consistently outperforms state-of-the-art baselines across HR@K and NDCG@K metrics.
- Abstract(参考訳): 近年, 自己回帰型セマンティックID (SID) 生成として項目予測を改定することで, 大幅なスケーリングの可能性を示した。
しかし、既存の手法は主に浅い行動信号に依存しており、タイトルや記述のような表面的なテキストの特徴によってのみアイテムを符号化する。
このモデルは、ユーザインタラクションの根底にある潜在的で意味的に豊かな関心を捉えず、パーソナライゼーションの深さとレコメンデーションの解釈可能性の両方を制限する。
DeepInterestGRは3つの重要なイノベーションを紹介している。 1) Multi-LLM Interest Mining (MLIM): 複数のフロンティアLSMと、そのマルチモーダルな変形を利用して、Chain-of-Thoughtプロンプトを通じて、深いテキストおよび視覚的関心表現を抽出する。
2) Reward-Labeled Deep Interest (RLDI): ライトウェイトなバイナリ分類器を用いて, マイニングされた利益に報酬ラベルを割り当て, 強化学習のための効果的な監視信号を実現する。
(3) 興味強化アイテム離散化(IEID): キュレートされた深い関心はセマンティック埋め込みに符号化され、RQ-VAEを介してSIDトークンに量子化される。
教師付き微調整は、生成モデルを深い関心信号と協調的なフィルタリングパターンで整列させ、続いて、関心認識リワードによって最適化されたGRPOを用いた強化学習を行う。
3つのAmazon Reviewベンチマークの実験によると、DeepInterestGRはHR@KとNDCG@Kのメトリクスで、最先端のベースラインを一貫して上回っている。
関連論文リスト
- Mine and Refine: Optimizing Graded Relevance in E-commerce Search Retrieval [3.1241290518951197]
大規模なeコマース検索要求は、長い尾のノイズの多いクエリに一般化される。
セマンティックテキスト埋め込みのための2段階の「Mine and Refine」コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-19T18:56:36Z) - GLASS: A Generative Recommender for Long-sequence Modeling via SID-Tier and Semantic Search [51.44490997013772]
GLASSは、SID-TierとSemantic Searchを通じて、長期的なユーザ関心を生成プロセスに統合する新しいフレームワークである。
GLASSは2つの大規模実世界のデータセットの実験において最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-05T13:48:33Z) - Masked Diffusion Generative Recommendation [14.679550929790151]
ジェネレーティブレコメンデーション(GR)は、通常、連続アイテムの埋め込みをマルチレベルセマンティックID(SID)に量子化する。
MDGRはMasked Diffusion Generative Recommendationフレームワークで,コードブック,トレーニング,推論という3つの観点からGRパイプラインを再評価する。
論文 参考訳(メタデータ) (2026-01-27T11:39:02Z) - DualGR: Generative Retrieval with Long and Short-Term Interests Modeling [23.123644321765607]
Generative Retrieval (GR) は Embedding-based Retrieval (EBR) の代替として登場した。
ユーザ興味の2つの地平線を選択的アクティベーションで明示的にモデル化する生成検索フレームワークであるDualGRを提案する。
オンラインA/Bテストでは0.527%のビデオビューと+0.432%のウォッチタイムリフトがあり、DualGRは産業生成検索の実践的で効果的なパラダイムとして検証されている。
論文 参考訳(メタデータ) (2025-11-16T09:20:54Z) - Understanding Generative Recommendation with Semantic IDs from a Model-scaling View [57.471604518714535]
Generative Recommendation (GR)は、リッチアイテムのセマンティクスと協調フィルタリング信号を統合する。
一般的なアプローチの1つは、セマンティックID(SID)を使用して、自動回帰ユーザーインタラクションシーケンスモデリングのセットアップでアイテムを表現することである。
SIDをベースとしたGRは,モデルをスケールアップしながら大きなボトルネックを示す。
我々は、大規模言語モデル(LLM)を直接レコメンデーションとして使用する別のGRパラダイムを再考する。
論文 参考訳(メタデータ) (2025-09-29T21:24:17Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Multimodal Fusion And Sparse Attention-based Alignment Model for Long Sequential Recommendation [9.086257183699418]
マルチモーダルアイテムシーケンスとマイニング マルチモーダルユーザ興味は、コンテンツ理解とレコメンデーションのギャップを埋めることができます。
本稿では,ムルティモダル核融合とスパースアテンションに基づくアライメントモデルであるMUFASAを提案する。
実世界のベンチマーク実験では、MUFASAが最先端のベースラインを一貫して超越していることが示されている。
論文 参考訳(メタデータ) (2025-08-13T09:50:44Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。