論文の概要: Verifiable Reasoning for LLM-based Generative Recommendation
- arxiv url: http://arxiv.org/abs/2603.07725v1
- Date: Sun, 08 Mar 2026 16:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.099661
- Title: Verifiable Reasoning for LLM-based Generative Recommendation
- Title(参考訳): LLMに基づく生成レコメンデーションのための検証可能な推論
- Authors: Xinyu Lin, Hanqing Zeng, Hanchao Yu, Yinglong Xia, Jiang Zhang, Aashu Singh, Fei Liu, Wenjie Wang, Fuli Feng, Tat-Seng Chua, Qifan Wang,
- Abstract要約: 大規模言語モデル(LLM)における推論は、最近、生成的レコメンデーションの強化に強い可能性を示している。
本稿では,信頼性の高いフィードバックを提供するために,検証と推論をインターリーブする新しいTextbftextitreason-verify-recommendパラダイムを提案する。
4つの実世界のデータセットの実験は、VRecが効率を損なうことなく、推奨の有効性とスケーラビリティを大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 106.7765000777685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning in Large Language Models (LLMs) has recently shown strong potential in enhancing generative recommendation through deep understanding of complex user preference. Existing approaches follow a {reason-then-recommend} paradigm, where LLMs perform step-by-step reasoning before item generation. However, this paradigm inevitably suffers from reasoning degradation (i.e., homogeneous or error-accumulated reasoning) due to the lack of intermediate verification, thus undermining the recommendation. To bridge this gap, we propose a novel \textbf{\textit{reason-verify-recommend}} paradigm, which interleaves reasoning with verification to provide reliable feedback, guiding the reasoning process toward more faithful user preference understanding. To enable effective verification, we establish two key principles for verifier design: 1) reliability ensures accurate evaluation of reasoning correctness and informative guidance generation; and 2) multi-dimensionality emphasizes comprehensive verification across multi-dimensional user preferences. Accordingly, we propose an effective implementation called VRec. It employs a mixture of verifiers to ensure multi-dimensionality, while leveraging a proxy prediction objective to pursue reliability. Experiments on four real-world datasets demonstrate that VRec substantially enhances recommendation effectiveness and scalability without compromising efficiency. The codes can be found at https://github.com/Linxyhaha/Verifiable-Rec.
- Abstract(参考訳): 近年,Large Language Models (LLMs) における推論は,複雑なユーザ嗜好の深い理解を通じて,生成的レコメンデーションの強化に強い可能性を示している。
既存のアプローチは {reason-then-recommend} パラダイムに従っており、LCMはアイテム生成の前にステップバイステップの推論を行う。
しかし、このパラダイムは必然的に、中間検証の欠如による推論劣化(等質的または誤り蓄積的推論)に悩まされ、推奨を損なう。
このギャップを埋めるために,信頼性の高いフィードバックを提供するための検証と推論をインターリーブし,より忠実なユーザの嗜好を理解するための推論プロセスを導く,新しい‘textbf{\textit{reason-verify-recommend}}パラダイムを提案する。
有効な検証を可能にするために,検証設計の2つの重要な原則を確立する。
1)信頼性は、推論正当性及び情報誘導生成の正確な評価を保証する。
2)多次元性は,多次元ユーザの嗜好にまたがる包括的検証を重視している。
そこで本研究では,VRecと呼ばれる効果的な実装を提案する。
信頼性を追求するためにプロキシ予測の目的を活用しながら、多次元性を確保するために検証器の混合を用いる。
4つの実世界のデータセットの実験は、VRecが効率を損なうことなく、推奨の有効性とスケーラビリティを大幅に向上することを示した。
コードはhttps://github.com/Linxyhaha/Verifiable-Recで見ることができる。
関連論文リスト
- Bringing Reasoning to Generative Recommendation Through the Lens of Cascaded Ranking [107.09842504618369]
ジェネレーティブ・レコメンデーション(GR)は、資源効率の高いレコメンデーションのために、FLOPSの利用率の高いエンド・ツー・エンドのアプローチとして期待されている。
現在のGRモデルは,トークン生成が進むにつれてトークンレベルのバイアスがエスカレートする,重要なtextbfbias増幅問題に悩まされていることを示す。
バイアス増幅問題に対処するためには、GR to 1) がより異質な情報を導入し、2) トークン生成ステップごとにより大きな計算資源を割り当てることが重要である。
論文 参考訳(メタデータ) (2026-02-03T16:10:54Z) - PROMISE: Process Reward Models Unlock Test-Time Scaling Laws in Generative Recommendations [52.67948063133533]
生成レコメンデーションは有望なパラダイムとして現れ、階層的なセマンティックIDよりもシーケンス・ツー・シーケンス生成タスクとしてレコメンデーションを改革している。
既存の手法は、セマンティックドリフト(Semantic Drift)と呼ばれる重要な問題に悩まされ、初期、高レベルのトークンのエラーは、生成軌道を無関係な意味部分空間に不可逆的に分散させる。
本稿では,高密度なステップバイステップ検証を生成モデルに統合する新しいフレームワークPromiseを提案する。
論文 参考訳(メタデータ) (2026-01-08T07:38:46Z) - OneRec-Think: In-Text Reasoning for Generative Recommendation [55.53292983432484]
OneRec-Thinkは、対話、推論、パーソナライズされたレコメンデーションをシームレスに統合する統合フレームワークである。
提案した"Think-Ahead"アーキテクチャは,クアイショーの産業展開を効果的に実現し,app Stay Timeの0.159%のアップを実現している。
論文 参考訳(メタデータ) (2025-10-13T17:20:13Z) - VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference [3.8760740008451156]
本稿では,分散言語モデル (LLM) 推論のための公開検証プロトコルであるVeriLLMを紹介する。
VeriLLMは、軽量な経験的再実行と暗号的なコミットメントを組み合わせることで、検証者は基礎となる推論コストの約1%で結果を検証することができる。
We show that VeriLLM achieve reliable public verifiability with least overhead。
論文 参考訳(メタデータ) (2025-09-29T04:07:32Z) - REG4Rec: Reasoning-Enhanced Generative Model for Large-Scale Recommendation Systems [25.59169452367297]
シーケンシャルレコメンデーションは,大規模レコメンデーションシステムにおけるユーザの次の行動を予測することを目的としている。
近年の研究では、ジェネレーティブレコメンデーションに推論プロセスを導入し、レコメンデーションパフォーマンスを大幅に改善している。
これらのアプローチは項目意味表現の特異性によって制約される。
本稿では,複数の動的意味論的推論経路を構成する推論強化生成モデルREG4Recを紹介する。
論文 参考訳(メタデータ) (2025-08-21T07:02:51Z) - R$^2$ec: Towards Large Recommender Models with Reasoning [59.32598867813266]
R$2$ecは、本質的な推論能力を持つ統一された大型レコメンデータモデルである。
R$2$ecは、推論チェーン生成と効率的なアイテム予測の両方を単一のモデルでサポートするデュアルヘッドアーキテクチャを導入している。
注釈付き推論データの欠如を克服するため、強化学習フレームワークであるRecPOを設計する。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。