論文の概要: Reasoning to Rank: An End-to-End Solution for Exploiting Large Language Models for Recommendation
- arxiv url: http://arxiv.org/abs/2602.12530v1
- Date: Fri, 13 Feb 2026 02:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.814281
- Title: Reasoning to Rank: An End-to-End Solution for Exploiting Large Language Models for Recommendation
- Title(参考訳): Reasoning to Rank: 推薦のための大規模言語モデルを爆発させるエンド・ツー・エンドのソリューション
- Authors: Kehan Zheng, Deyao Hong, Qian Li, Jun Zhang, Huan Yu, Jie Jiang, Hongning Wang,
- Abstract要約: ランクへの推論(Reasoning to Rank)は、言語モデルにおけるステップバイステップ推論の学習に推奨ユーティリティ最適化を内部化するエンドツーエンドのトレーニングフレームワークである。
本フレームワークは,言語モデルのエンド・ツー・エンド・トレーニングに強化学習を導入し,ユーザ・イテムレベルで推論を行う。
- 参考スコア(独自算出の注目度): 44.51582748617213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems are tasked to infer users' evolving preferences and rank items aligned with their intents, which calls for in-depth reasoning beyond pattern-based scoring. Recent efforts start to leverage large language models (LLMs) for recommendation, but how to effectively optimize the model for improved recommendation utility is still under explored. In this work, we propose Reasoning to Rank, an end-to-end training framework that internalizes recommendation utility optimization into the learning of step-by-step reasoning in LLMs. To avoid position bias in LLM reasoning and enable direct optimization of the reasoning process, our framework performs reasoning at the user-item level and employs reinforcement learning for end-to-end training of the LLM. Experiments on three Amazon datasets and a large-scale industrial dataset showed consistent gains over strong conventional and LLM-based solutions. Extensive in-depth analyses validate the necessity of the key components in the proposed framework and shed lights on the future developments of this line of work.
- Abstract(参考訳): レコメンダシステムは、ユーザの進化する嗜好と、パターンベースのスコアリング以上の詳細な推論を要求する意図に沿ったランク項目を推測する。
最近の取り組みでは、リコメンデーションに大規模言語モデル(LLM)を活用し始めているが、リコメンデーションユーティリティの改善のためにモデルを効果的に最適化する方法はまだ検討中である。
本研究では,LLMにおけるステップバイステップ推論の学習に推奨ユーティリティ最適化を内部化するエンドツーエンドのトレーニングフレームワークであるReasoning to Rankを提案する。
LLM推論における位置バイアスを回避し、推論プロセスの直接最適化を可能にするため、本フレームワークはユーザ・イテムレベルで推論を行い、LLMのエンドツーエンドトレーニングに強化学習を採用する。
Amazonの3つのデータセットと大規模産業データセットの実験は、従来のLLMベースのソリューションよりも一貫して向上したことを示している。
広範囲にわたる詳細な分析により,提案するフレームワークにおける重要なコンポーネントの必要性が検証され,今後の開発に光が当たっている。
関連論文リスト
- Towards Comprehensible Recommendation with Large Language Model Fine-tuning [41.218487308635126]
本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-11T03:55:31Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - Direct Preference Optimization for LLM-Enhanced Recommendation Systems [33.54698201942643]
大規模言語モデル(LLM)は、幅広い領域で顕著なパフォーマンスを示している。
我々は,DPOをLLM強化レコメンデーションシステムに統合するフレームワークであるDPO4Recを提案する。
大規模な実験により、DPO4Recは強いベースラインよりも性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。