論文の概要: Parallel Latent Reasoning for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.03153v1
- Date: Tue, 06 Jan 2026 16:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.019593
- Title: Parallel Latent Reasoning for Sequential Recommendation
- Title(参考訳): シークエンシャルレコメンデーションのための並列潜時推論
- Authors: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang, Bo Zheng,
- Abstract要約: 多様な推論軌道を同時に探索するための新しいフレームワークである PLR を提案する。
PLRは連続的な潜在空間における学習可能なトリガートークンを通して並列推論ストリームを構築する。
3つの実世界のデータセットの実験により、PLRは最先端のベースラインを大幅に上回ることを示した。
- 参考スコア(独自算出の注目度): 23.624137982116867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing complex user preferences from sparse behavioral sequences remains a fundamental challenge in sequential recommendation. Recent latent reasoning methods have shown promise by extending test-time computation through multi-step reasoning, yet they exclusively rely on depth-level scaling along a single trajectory, suffering from diminishing returns as reasoning depth increases. To address this limitation, we propose \textbf{Parallel Latent Reasoning (PLR)}, a novel framework that pioneers width-level computational scaling by exploring multiple diverse reasoning trajectories simultaneously. PLR constructs parallel reasoning streams through learnable trigger tokens in continuous latent space, preserves diversity across streams via global reasoning regularization, and adaptively synthesizes multi-stream outputs through mixture-of-reasoning-streams aggregation. Extensive experiments on three real-world datasets demonstrate that PLR substantially outperforms state-of-the-art baselines while maintaining real-time inference efficiency. Theoretical analysis further validates the effectiveness of parallel reasoning in improving generalization capability. Our work opens new avenues for enhancing reasoning capacity in sequential recommendation beyond existing depth scaling.
- Abstract(参考訳): スパースな行動シーケンスから複雑なユーザの好みをキャプチャすることは、シーケンシャルなレコメンデーションにおける根本的な課題である。
近年の潜伏推論法では,多段階推論によるテスト時間計算の拡張が期待されているが,推理深度が増大するにつれてリターンの低下に悩まされるため,単軌道に沿った深さレベルのスケーリングにのみ依存している。
この制限に対処するために,複数の多種多様な推論軌道を同時に探索することによって,幅レベルの計算スケーリングを開拓する新しいフレームワークである \textbf{Parallel Latent Reasoning (PLR) を提案する。
PLRは学習可能なトリガトークンを通じて連続潜在空間内で並列推論ストリームを構築し、大域的推論正規化を通じてストリーム間の多様性を保ち、混合推論ストリームアグリゲーションを通じてマルチストリーム出力を適応的に合成する。
3つの実世界のデータセットに対する大規模な実験は、PLRがリアルタイムの推論効率を維持しながら最先端のベースラインを大幅に上回っていることを示している。
理論解析は、一般化能力の向上における並列推論の有効性をさらに検証する。
我々の研究は、既存の深度スケーリングを超えて、シーケンシャルなレコメンデーションで推論能力を高めるための新しい道を開く。
関連論文リスト
- SpiralThinker: Latent Reasoning through an Iterative Process with Text-Latent Interleaving [4.732347368043908]
SpiralThinkerは、潜在表現を反復的に更新する統合フレームワークである。
構造化アノテーションと組み合わせたプログレッシブアライメントの目的は、潜在的推論とテキスト推論のコヒーレンスを維持する。
論文 参考訳(メタデータ) (2025-11-12T05:05:42Z) - A Survey on Parallel Reasoning [58.66122129692264]
まず、並列推論の形式的定義を示し、その区別をChain-of-Thoughtのような関連する概念と明確にする。
次に、非対話的推論、対話的推論、効率を重視した復号戦略を含む、新しい分類法に基づく高度な手法を編成し、議論する。
並列推論の中核的な課題を強調し,今後の研究の方向性を示唆する。
論文 参考訳(メタデータ) (2025-10-14T05:42:19Z) - READER: Retrieval-Assisted Drafter for Efficient LLM Inference [0.0386965802948046]
自己回帰言語モデルはトークンシーケンスよりも分解された確率をインスタンス化するが、その厳密なシーケンシャルなデコーディングプロセスは、遅延推論に固有の低いバウンドを課す。
このボトルネックは、大規模生成モデルのスケーラブルなデプロイにおける中心的な障害として現れています。
本稿では,補助的ドラフトモデルのトレーニングを回避した投機的復号化フレームワークREADERを提案する。
論文 参考訳(メタデータ) (2025-08-12T16:47:48Z) - Hybrid Latent Reasoning via Reinforcement Learning [50.6763762323985]
大規模言語モデル(LLM)の能力を活用した強化学習(RL)による潜時推論について検討する。
RLをベースとしたハイブリッド潜在推論手法であるハイブリッド推論ポリシー最適化(HRPO)を導入する。
HRPOで訓練されたLLMは解釈可能であり、言語横断パターンや短い完了長といった興味深い挙動を示す。
論文 参考訳(メタデータ) (2025-05-24T01:26:16Z) - Fractured Chain-of-Thought Reasoning [61.647243580650446]
完全CoTと解のみのサンプリングを補間する統合推論時間戦略であるフラクチャードサンプリングを導入する。
フラクチャードサンプリングは、Pass@kとトークンの予算に対して、急激なログ線形スケーリングゲインをもたらすため、優れた精度とコストのトレードオフを一貫して達成できることを示す。
論文 参考訳(メタデータ) (2025-05-19T11:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。