論文の概要: Bringing Reasoning to Generative Recommendation Through the Lens of Cascaded Ranking
- arxiv url: http://arxiv.org/abs/2602.03692v2
- Date: Wed, 04 Feb 2026 09:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.817888
- Title: Bringing Reasoning to Generative Recommendation Through the Lens of Cascaded Ranking
- Title(参考訳): カスケードランクのレンズによる生成的レコメンデーションへの推論の導入
- Authors: Xinyu Lin, Pengyuan Liu, Wenjie Wang, Yicheng Hu, Chen Xu, Fuli Feng, Qifan Wang, Tat-Seng Chua,
- Abstract要約: ジェネレーティブ・レコメンデーション(GR)は、資源効率の高いレコメンデーションのために、FLOPSの利用率の高いエンド・ツー・エンドのアプローチとして期待されている。
現在のGRモデルは,トークン生成が進むにつれてトークンレベルのバイアスがエスカレートする,重要なtextbfbias増幅問題に悩まされていることを示す。
バイアス増幅問題に対処するためには、GR to 1) がより異質な情報を導入し、2) トークン生成ステップごとにより大きな計算資源を割り当てることが重要である。
- 参考スコア(独自算出の注目度): 107.09842504618369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Recommendation (GR) has become a promising end-to-end approach with high FLOPS utilization for resource-efficient recommendation. Despite the effectiveness, we show that current GR models suffer from a critical \textbf{bias amplification} issue, where token-level bias escalates as token generation progresses, ultimately limiting the recommendation diversity and hurting the user experience. By comparing against the key factor behind the success of traditional multi-stage pipelines, we reveal two limitations in GR that can amplify the bias: homogeneous reliance on the encoded history, and fixed computational budgets that prevent deeper user preference understanding. To combat the bias amplification issue, it is crucial for GR to 1) incorporate more heterogeneous information, and 2) allocate greater computational resources at each token generation step. To this end, we propose CARE, a simple yet effective cascaded reasoning framework for debiased GR. To incorporate heterogeneous information, we introduce a progressive history encoding mechanism, which progressively incorporates increasingly fine-grained history information as the generation process advances. To allocate more computations, we propose a query-anchored reasoning mechanism, which seeks to perform a deeper understanding of historical information through parallel reasoning steps. We instantiate CARE on three GR backbones. Empirical results on four datasets show the superiority of CARE in recommendation accuracy, diversity, efficiency, and promising scalability. The codes and datasets are available at https://github.com/Linxyhaha/CARE.
- Abstract(参考訳): ジェネレーティブ・レコメンデーション(GR)は、資源効率の高いレコメンデーションのために、FLOPSの利用率の高いエンド・ツー・エンドのアプローチとして期待されている。
有効性にもかかわらず、現在のGRモデルは、トークンレベルのバイアスがトークン生成の進行に伴ってエスカレートし、最終的に推奨の多様性を制限し、ユーザエクスペリエンスを損なう、クリティカルな \textbf{bias amplification} 問題に悩まされていることを示す。
従来のマルチステージパイプラインの成功の背景にある重要な要因と比較することにより、そのバイアスを増幅するGRの2つの制限、すなわちエンコードされた履歴への同質な依存と、より深いユーザの嗜好の理解を妨げる固定された計算予算を明らかにする。
バイアス増幅問題に対処するためには、GRが不可欠である。
1)さらに異質な情報を取り入れ、
2) 各トークン生成ステップにより大きな計算資源を割り当てる。
そこで本研究では, 脱バイアスGRのための簡易かつ効果的な推論フレームワークであるCAREを提案する。
不均一な情報を組み込むために,生成プロセスが進むにつれて,よりきめ細かな歴史情報を徐々に組み込むプログレッシブ・ヒストリー・エンコーディング機構を導入する。
より多くの計算を割り当てるために,並列推論ステップを通じて過去の情報をより深く理解することを目的としたクエリアンコール推論機構を提案する。
3つのGRバックボーン上でCAREをインスタンス化する。
4つのデータセットの実証結果は、推奨精度、多様性、効率、有望なスケーラビリティにおけるCAREの優位性を示している。
コードとデータセットはhttps://github.com/Linxyhaha/CAREで公開されている。
関連論文リスト
- TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Does Generative Retrieval Overcome the Limitations of Dense Retrieval? [117.49076770892583]
生成的検索(GR)はニューラル情報検索の新しいパラダイムとして登場した。
本研究では,GRが高密度検索(DR)から学習目的と表現能力の両方において根本的に分岐するかを検討する。
論文 参考訳(メタデータ) (2025-09-26T09:38:01Z) - GFlowGR: Fine-tuning Generative Recommendation Frameworks with Generative Flow Networks [36.39484385717512]
本稿では、生成勧告(GR)を多段階生成タスクとして扱い、GFlowNetsベースの微調整フレームワーク(GFlowGR)を構築する。
提案フレームワークは,従来のレコメンデータシステムからの協調的知識を統合し,適応的軌道サンプリングと包括的報酬モデルを作成する。
論文 参考訳(メタデータ) (2025-06-19T08:04:31Z) - Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - Reinforced Informativeness Optimization for Long-Form Retrieval-Augmented Generation [77.10390725623125]
LFQA(Long-form Question answering)は、大規模言語モデルに固有の課題を提示する。
RioRAGは、強化情報性最適化を通じて長めのRAGを進化させる新しい強化学習フレームワークである。
論文 参考訳(メタデータ) (2025-05-27T07:34:41Z) - Constrained Auto-Regressive Decoding Constrains Generative Retrieval [71.71161220261655]
ジェネレーティブ検索は、従来の検索インデックスデータ構造を1つの大規模ニューラルネットワークに置き換えようとしている。
本稿では,制約とビームサーチという2つの本質的な視点から,制約付き自己回帰生成の固有の制約について検討する。
論文 参考訳(メタデータ) (2025-04-14T06:54:49Z) - A Distribution-Aware Flow-Matching for Generating Unstructured Data for Few-Shot Reinforcement Learning [1.0709300917082865]
数発の強化学習のための合成非構造化データを生成するための分布認識フローマッチング手法を提案する。
我々のアプローチは、オーバーフィッティングやデータ相関など、従来のモデルベースRLにおける重要な課題に対処する。
提案手法は,初期タイムスタンプのフレームレートを30%向上させながら,最大Q値で安定した収束を実現することを示す。
論文 参考訳(メタデータ) (2024-09-21T15:50:59Z) - Pistis-RAG: Enhancing Retrieval-Augmented Generation with Human Feedback [41.88662700261036]
RAGシステムは、セマンティックな関連性だけでは生成品質の向上を保証していない場合に制限に直面している。
我々は、LLMと人間の嗜好をよりよく整合させるために、コンテンツ中心のアプローチで設計された新しいRAGフレームワークであるPristis-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-21T08:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。