論文の概要: S$^2$GR: Stepwise Semantic-Guided Reasoning in Latent Space for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2601.18664v1
- Date: Mon, 26 Jan 2026 16:40:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.943897
- Title: S$^2$GR: Stepwise Semantic-Guided Reasoning in Latent Space for Generative Recommendation
- Title(参考訳): S$^2$GR: 生成レコメンデーションのための潜在空間におけるステップワイズ意味誘導推論
- Authors: Zihao Guo, Jian Wang, Ruxin Zhou, Youhua Liu, Jiawei Guo, Jun Zhao, Xiaoxiao Xu, Yongqi Liu, Kaiqiao Zhan,
- Abstract要約: Generative Recommendation (GR) は、エンドツーエンドジェネレーションのアドバンテージとともに、トランスフォーメーションパラダイムとして登場した。
既存のGR法は主に相互作用シーケンスから直接セマンティックID(SID)を生成することに重点を置いている。
本稿では,潜在空間における段階的意味誘導推論(S$2$GR)を提案する。
- 参考スコア(独自算出の注目度): 15.69884243417431
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Recommendation (GR) has emerged as a transformative paradigm with its end-to-end generation advantages. However, existing GR methods primarily focus on direct Semantic ID (SID) generation from interaction sequences, failing to activate deeper reasoning capabilities analogous to those in large language models and thus limiting performance potential. We identify two critical limitations in current reasoning-enhanced GR approaches: (1) Strict sequential separation between reasoning and generation steps creates imbalanced computational focus across hierarchical SID codes, degrading quality for SID codes; (2) Generated reasoning vectors lack interpretable semantics, while reasoning paths suffer from unverifiable supervision. In this paper, we propose stepwise semantic-guided reasoning in latent space (S$^2$GR), a novel reasoning enhanced GR framework. First, we establish a robust semantic foundation via codebook optimization, integrating item co-occurrence relationship to capture behavioral patterns, and load balancing and uniformity objectives that maximize codebook utilization while reinforcing coarse-to-fine semantic hierarchies. Our core innovation introduces the stepwise reasoning mechanism inserting thinking tokens before each SID generation step, where each token explicitly represents coarse-grained semantics supervised via contrastive learning against ground-truth codebook cluster distributions ensuring physically grounded reasoning paths and balanced computational focus across all SID codes. Extensive experiments demonstrate the superiority of S$^2$GR, and online A/B test confirms efficacy on large-scale industrial short video platform.
- Abstract(参考訳): Generative Recommendation (GR) は、エンドツーエンドジェネレーションのアドバンテージとともに、トランスフォーメーションパラダイムとして登場した。
しかし、既存のGR法は主に相互作用シーケンスから直接セマンティックID(SID)を生成することに重点を置いており、大きな言語モデルに類似した深い推論機能を起動できず、性能の可能性を制限している。
1) 推論と生成ステップの厳密な分離により、階層的なSIDコード間の不均衡な計算焦点が生成され、SIDコードの品質が低下する。
本稿では,潜在空間における段階的意味誘導推論(S$^2$GR)を提案する。
まず、コードブックの最適化、行動パターンを捕捉するための項目共起関係の統合、および粗大なセマンティック階層を補強しつつ、コードブックの利用を最大化する負荷分散と統一目標の確立により、ロバストなセマンティック基盤を確立する。
我々の中核的な革新は、各SID生成ステップの前に思考トークンを挿入するステップワイズ推論機構を導入し、各トークンは、物理的に基底化された推論パスと、すべてのSIDコード間でのバランスの取れた計算焦点を確保するために、接地型コードブッククラスタ分布に対する対照的な学習を通して監督される粗粒度意味論を明示的に表現する。
大規模な実験はS$^2$GRの優位性を示し、オンラインA/Bテストは大規模産業用ショートビデオプラットフォームにおける有効性を確認する。
関連論文リスト
- Latent-Space Contrastive Reinforcement Learning for Stable and Efficient LLM Reasoning [16.244366307890832]
textbfDeepLatent Reasoning(DLR)を提案する。
このフレームワークは、試行錯誤コストを、高価なトークンレベルのフルシーケンス生成から連続潜在多様体へシフトさせる。
実験により、DLRはより安定した訓練収束を実現し、より長い水平推論チェーンをサポートし、推論能力の持続的な蓄積を促進することが示されている。
論文 参考訳(メタデータ) (2026-01-24T03:18:22Z) - PRISM: Purified Representation and Integrated Semantic Modeling for Generative Sequential Recommendation [28.629759086187352]
本稿では,PRISMとPureified RepresentationとIntegrated Semantic Modelingを組み合わせた新しい生成レコメンデーションフレームワークを提案する。
PRISMは4つの実世界のデータセットで、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2026-01-23T08:50:16Z) - Reinforced Efficient Reasoning via Semantically Diverse Exploration [73.41112984160992]
検証可能な報酬(RLVR)による強化学習は,大規模言語モデル(LLM)の推論の強化に有効であることが証明された。
本研究では,LLMのための意味的多様性探索,すなわちROSEによる効率的な推論手法を提案する。
本手法は,意味エントロピーに基づく分岐戦略と$varepsilon$-exploration機構を組み込んだものである。
論文 参考訳(メタデータ) (2026-01-08T15:56:44Z) - Idea-Gated Transformers: Enforcing Semantic Coherence via Differentiable Vocabulary Pruning [0.40611352512781856]
本稿では,セマンティックプランニングと構文生成を分離した新しいアーキテクチャであるIdean-Gated Transformerを紹介する。
本稿では,意味的に無関係なトークンを抑え,検索空間をリアルタイムで効果的に刈り取る,微分可能なゲーティング機構を提案する。
論文 参考訳(メタデータ) (2025-12-03T01:17:07Z) - Geometrically-Constrained Agent for Spatial Reasoning [53.93718394870856]
視覚言語モデルは空間的推論において基本的な意味-幾何学的ギャップを示す。
現在のパラダイムは、このギャップを埋めることに失敗します。
本稿では,形式的タスク制約を導入することにより,このギャップを解消する学習自由エージェントパラダイムを提案する。
論文 参考訳(メタデータ) (2025-11-27T17:50:37Z) - LIHE: Linguistic Instance-Split Hyperbolic-Euclidean Framework for Generalized Weakly-Supervised Referring Expression Comprehension [42.52759428579815]
既存のWeakly-Supervised Referring Expression (WREC) メソッドは、基本的に1対1のマッピング仮定によって制限される。
Weakly-Supervised Generalized Referring Expression Task (WGREC)を導入する。
本稿では,2段階で動作するLingguistic Instance-Split-Euclidean (LIHE) という新しいWGRECフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-15T04:06:57Z) - DiffGRM: Diffusion-based Generative Recommendation Model [63.35379395455103]
ジェネレーティブレコメンデーション(GR)は、トークン化器を介して各項目をn桁のセマンティックID(SID)として表現する新興パラダイムである。
自己回帰デコーダをマスク付き離散拡散モデル(MDM)に置き換える拡散ベースGRモデルDiffGRMを提案する。
実験では、複数のデータセットに対する強力な生成的および差別的推奨ベースラインよりも一貫した利得を示す。
論文 参考訳(メタデータ) (2025-10-21T03:23:32Z) - HiD-VAE: Interpretable Generative Recommendation via Hierarchical and Disentangled Semantic IDs [29.735089231891305]
HiD-VAEは、2つのコアイノベーションを通じて階層的に切り離されたアイテム表現を学ぶ新しいフレームワークである。
第一に、HiD-VAEは階層的に制御された量子化プロセスの先駆者であり、離散コードとマルチレベルアイテムタグを整列する。
第二に、HiD-VAEは表現の絡み合いと戦うために、遅延空間の重なりを直接罰する新しい特異性損失を取り入れている。
論文 参考訳(メタデータ) (2025-08-06T16:45:05Z) - ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation [74.37307916314407]
提案するフレームワークはConciseHintと呼ばれ,推論モデルが簡潔に話すことを継続的に奨励する。
DeepSeek-R1 および Qwen-3 シリーズを含む最先端の LRM 実験により,本手法が簡潔な推論を効果的に生成できることが実証された。
論文 参考訳(メタデータ) (2025-06-23T16:20:44Z) - Reinforced Latent Reasoning for LLM-based Recommendation [92.56166822197919]
大きな言語モデル(LLM)は、複雑な問題解決タスクにおいて印象的な推論能力を示している。
既存の手法は通常、明示的なチェーン・オブ・シント(CoT)データによる微調整に依存している。
本研究では, 明示的なCoT推論から, コンパクトで情報密度の高い潜伏推論へ移行する代替手法について検討する。
論文 参考訳(メタデータ) (2025-05-25T11:03:45Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。