論文の概要: Masked Diffusion Generative Recommendation
- arxiv url: http://arxiv.org/abs/2601.19501v2
- Date: Thu, 29 Jan 2026 04:42:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.327343
- Title: Masked Diffusion Generative Recommendation
- Title(参考訳): Masked Diffusion Generative Recommendation
- Authors: Lingyu Mu, Hao Deng, Haibo Xing, Jinxin Hu, Yu Zhang, Xiaoyi Zeng, Jing Zhang,
- Abstract要約: ジェネレーティブレコメンデーション(GR)は、通常、連続アイテムの埋め込みをマルチレベルセマンティックID(SID)に量子化する。
MDGRはMasked Diffusion Generative Recommendationフレームワークで,コードブック,トレーニング,推論という3つの観点からGRパイプラインを再評価する。
- 参考スコア(独自算出の注目度): 14.679550929790151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation (GR) typically first quantizes continuous item embeddings into multi-level semantic IDs (SIDs), and then generates the next item via autoregressive decoding. Although existing methods are already competitive in terms of recommendation performance, directly inheriting the autoregressive decoding paradigm from language models still suffers from three key limitations: (1) autoregressive decoding struggles to jointly capture global dependencies among the multi-dimensional features associated with different positions of SID; (2) using a unified, fixed decoding path for the same item implicitly assumes that all users attend to item attributes in the same order; (3) autoregressive decoding is inefficient at inference time and struggles to meet real-time requirements. To tackle these challenges, we propose MDGR, a Masked Diffusion Generative Recommendation framework that reshapes the GR pipeline from three perspectives: codebook, training, and inference. (1) We adopt a parallel codebook to provide a structural foundation for diffusion-based GR. (2) During training, we adaptively construct masking supervision signals along both the temporal and sample dimensions. (3) During inference, we develop a warm-up-based two-stage parallel decoding strategy for efficient generation of SIDs. Extensive experiments on multiple public and industrial-scale datasets show that MDGR outperforms ten state-of-the-art baselines by up to 10.78%. Furthermore, by deploying MDGR on a large-scale online advertising platform, we achieve a 1.20% increase in revenue, demonstrating its practical value.
- Abstract(参考訳): ジェネレーティブレコメンデーション(GR)は通常、連続したアイテムの埋め込みをマルチレベルセマンティックID(SID)に量子化し、次に自動回帰デコーディングによって次のアイテムを生成する。
既存の手法はすでに推奨性能において競争力があるが、言語モデルから自己回帰的復号パラダイムを直接継承することは、(1) 自己回帰的復号法は、SIDの異なる位置に関連する多次元特徴のうち、グローバルな依存関係を共同で捉えるのに苦労する、(2) 統一された固定的復号法を用いて、すべてのユーザが同じ順序でアイテム属性に出席することを暗黙的に仮定する、(3) 自己回帰的復号法は推論時に非効率であり、リアルタイムの要求を満たすのに苦慮する、という3つの重要な制限がある。
これらの課題に対処するために、MDGRというMasked Diffusion Generative Recommendationフレームワークを提案する。
1)拡散型GRの構造基盤を提供するために並列コードブックを採用する。
2) トレーニング中, 時間次元とサンプル次元の両方に沿ってマスキング監視信号を適応的に構築する。
(3) 推論中は,SIDの効率的な生成のためのウォームアップベースの2段階並列デコード戦略を開発する。
複数の公共および工業規模のデータセットに対する大規模な実験により、MDGRは10の最先端のベースラインを最大10.78%上回っている。
さらに、MDGRを大規模オンライン広告プラットフォームに展開することにより、収益の1.20%増加を達成し、その実用的価値を示す。
関連論文リスト
- S$^2$GR: Stepwise Semantic-Guided Reasoning in Latent Space for Generative Recommendation [15.69884243417431]
Generative Recommendation (GR) は、エンドツーエンドジェネレーションのアドバンテージとともに、トランスフォーメーションパラダイムとして登場した。
既存のGR法は主に相互作用シーケンスから直接セマンティックID(SID)を生成することに重点を置いている。
本稿では,潜在空間における段階的意味誘導推論(S$2$GR)を提案する。
論文 参考訳(メタデータ) (2026-01-26T16:40:37Z) - Co-GRPO: Co-Optimized Group Relative Policy Optimization for Masked Diffusion Model [74.99242687133408]
Masked Diffusion Models (MDMs) は、視覚、言語、モーダル・ジェネレーションにまたがる有望な可能性を示している。
本稿では,MDM生成をMDP(Markov Decision Process)として再構成し,モデルと推論スケジュールを併用するCo-GRPOを提案する。
論文 参考訳(メタデータ) (2025-12-25T12:06:04Z) - LLaDA-Rec: Discrete Diffusion for Parallel Semantic ID Generation in Generative Recommendation [32.284624021041004]
並列なセマンティックID生成としてレコメンデーションを再構成する離散拡散フレームワークであるLLaDA-Recを提案する。
3つの実世界のデータセットの実験では、LLaDA-RecはIDベースと最先端のジェネレーティブレコメンデータの両方を一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-09T07:12:15Z) - DiffGRM: Diffusion-based Generative Recommendation Model [63.35379395455103]
ジェネレーティブレコメンデーション(GR)は、トークン化器を介して各項目をn桁のセマンティックID(SID)として表現する新興パラダイムである。
自己回帰デコーダをマスク付き離散拡散モデル(MDM)に置き換える拡散ベースGRモデルDiffGRMを提案する。
実験では、複数のデータセットに対する強力な生成的および差別的推奨ベースラインよりも一貫した利得を示す。
論文 参考訳(メタデータ) (2025-10-21T03:23:32Z) - Understanding Generative Recommendation with Semantic IDs from a Model-scaling View [57.471604518714535]
Generative Recommendation (GR)は、リッチアイテムのセマンティクスと協調フィルタリング信号を統合する。
一般的なアプローチの1つは、セマンティックID(SID)を使用して、自動回帰ユーザーインタラクションシーケンスモデリングのセットアップでアイテムを表現することである。
SIDをベースとしたGRは,モデルをスケールアップしながら大きなボトルネックを示す。
我々は、大規模言語モデル(LLM)を直接レコメンデーションとして使用する別のGRパラダイムを再考する。
論文 参考訳(メタデータ) (2025-09-29T21:24:17Z) - FORGE: Forming Semantic Identifiers for Generative Retrieval in Industrial Datasets [64.51403245281547]
FORGEは、産業データセットを使ったジェネレーティブrEtrievalにおけるFOrmingセマンティック識別のベンチマークである。
現実世界のアプリケーションでは、オンラインコンバージェンスを半減するオフライン事前トレーニングスキーマが導入されている。
論文 参考訳(メタデータ) (2025-09-25T08:44:22Z) - Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。