論文の概要: MGFRec: Towards Reinforced Reasoning Recommendation with Multiple Groundings and Feedback
- arxiv url: http://arxiv.org/abs/2510.22888v1
- Date: Mon, 27 Oct 2025 00:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.408896
- Title: MGFRec: Towards Reinforced Reasoning Recommendation with Multiple Groundings and Feedback
- Title(参考訳): MGFRec:多重接地とフィードバックによる強化推論勧告に向けて
- Authors: Shihao Cai, Chongming Gao, Haoyan Liu, Wentao Shi, Jianshan Sun, Ruiming Tang, Fuli Feng,
- Abstract要約: 我々は,LLMが実際のアイテム空間をよりよく理解するために,推論中に複数ラウンドのグラウンドを実行することを提案する。
3つのAmazonレビューデータセットで実施された総合的な実験は、複数の基盤とフィードバックを組み込むことの有効性を実証している。
- 参考スコア(独自算出の注目度): 62.59727494001646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The powerful reasoning and generative capabilities of large language models (LLMs) have inspired researchers to apply them to reasoning-based recommendation tasks, which require in-depth reasoning about user interests and the generation of recommended items. However, previous reasoning-based recommendation methods have typically performed inference within the language space alone, without incorporating the actual item space. This has led to over-interpreting user interests and deviating from real items. Towards this research gap, we propose performing multiple rounds of grounding during inference to help the LLM better understand the actual item space, which could ensure that its reasoning remains aligned with real items. Furthermore, we introduce a user agent that provides feedback during each grounding step, enabling the LLM to better recognize and adapt to user interests. Comprehensive experiments conducted on three Amazon review datasets demonstrate the effectiveness of incorporating multiple groundings and feedback. These findings underscore the critical importance of reasoning within the actual item space, rather than being confined to the language space, for recommendation tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)の強力な推論と生成能力は、研究者に推論に基づくレコメンデーションタスクに適用するよう刺激を与えている。
しかし、従来の推論に基づくレコメンデーション手法は、実際の項目空間を組み込むことなく、言語空間内でのみ推論を行うのが一般的である。
これはユーザーの興味を過度に解釈し、実際のアイテムから逸脱させる原因となった。
この研究ギャップに向けて,LLMが実際の項目空間をよりよく理解できるように,推論中に複数ラウンドの接地を行うことを提案する。
さらに,ユーザエージェントを導入し,各ステップでフィードバックを提供することで,LLMがユーザの関心事によりよく認識し,適応できるようにする。
3つのAmazonレビューデータセットで実施された総合的な実験は、複数の基盤とフィードバックを組み込むことの有効性を実証している。
これらの知見は,レコメンデーションタスクにおいて,言語空間に限られるのではなく,実際の項目空間における推論の重要性を強調した。
関連論文リスト
- OneRec-Think: In-Text Reasoning for Generative Recommendation [55.53292983432484]
OneRec-Thinkは、対話、推論、パーソナライズされたレコメンデーションをシームレスに統合する統合フレームワークである。
提案した"Think-Ahead"アーキテクチャは,クアイショーの産業展開を効果的に実現し,app Stay Timeの0.159%のアップを実現している。
論文 参考訳(メタデータ) (2025-10-13T17:20:13Z) - From What to Why: Thought-Space Recommendation with Small Language Models [2.134948383299948]
大規模言語モデル(LLM)は推論の強化を通じて高度なレコメンデーション機能を備えているが、実際のデプロイメントには大きな課題がある。
SLM(Small Language Models)は効率的な代替手段を提供するが、推奨する推論機能は未検討のままである。
PULSE(Preference Understanding by Latent Semantic Embeddings)は,SLM生成論理をディレクター学習信号として扱うフレームワークである。
論文 参考訳(メタデータ) (2025-10-08T11:22:26Z) - Learning to Shop Like Humans: A Review-driven Retrieval-Augmented Recommendation Framework with LLMs [30.748667156183004]
RevBrowseはレビュー駆動のレコメンデーションフレームワークである。
RevBrowseは、ユーザレビューをLLMベースのリグレードプロセスに統合し、候補項目を識別する機能を強化する。
PrefRAGは、ユーザとアイテムの表現を構造化形式に分解する検索拡張モジュールである。
論文 参考訳(メタデータ) (2025-08-31T04:37:43Z) - Evaluating Large Language Models as Expert Annotators [17.06186816803593]
本稿では,トップパフォーマンス言語モデルが,人間の専門家アノテータの直接的な代替として機能するかどうかを考察する。
我々は、金融、バイオメディシン、法という3つの専門分野にまたがる個別のLCMとマルチエージェントのアプローチを評価した。
実験結果から,推定時間的手法を具備した個々のLSMは,限界あるいは負の利得しか示さないことが明らかとなった。
論文 参考訳(メタデータ) (2025-08-11T10:19:10Z) - Review-driven Personalized Preference Reasoning with Large Language Models for Recommendation [21.769969074938142]
EXP3RTは、ユーザとアイテムレビューに含まれるリッチな好み情報を活用するために設計された、LLMベースの新しいレコメンデータである。
詳細なステップバイステップの推論と予測された評価を生成する。
実験の結果、EXP3RTは評価予測と候補項目の双方において、トップkレコメンデーションにおいて既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-08-12T16:39:03Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Sample Efficient Preference Alignment in LLMs via Active Exploration [63.84454768573154]
良い政策を最も効率的に特定するために、人間のフィードバックを得るコンテキストをしばしば選択できるという事実を活用します。
本稿では,データを効率的に選択する能動的探索アルゴリズムを提案する。
提案手法は,複数の言語モデルと4つの実世界のデータセットに対する人間の嗜好の限られたサンプルを用いて,ベースラインよりも優れる。
論文 参考訳(メタデータ) (2023-12-01T00:54:02Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。