論文の概要: R3-REC: Reasoning-Driven Recommendation via Retrieval-Augmented LLMs over Multi-Granular Interest Signals
- arxiv url: http://arxiv.org/abs/2603.13730v1
- Date: Sat, 14 Mar 2026 03:14:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.368554
- Title: R3-REC: Reasoning-Driven Recommendation via Retrieval-Augmented LLMs over Multi-Granular Interest Signals
- Title(参考訳): R3-REC:マルチグラニュラー利害信号を用いた検索LDMによる推論駆動レコメンデーション
- Authors: Yuchen Miao, Mingxuan Cui, Yitong Zhu, Yu Wang, Siyang Xu,
- Abstract要約: 本稿では,R3-REC(Reasoning-Retrieval-Recommendation)を提案する。これは,ユーザインテント推論,アイテムセマンティック抽出,ロングショート興味極性マイニング,類似ユーザコラボレーションの強化,およびReasoningに基づく関心マッチングとスコアリングを統一する,プロンプト中心のフレームワークである。
ML-1M、Games、 Bundleの他、R3-RECは強力なニューラルネットワークとLLMベースラインを一貫して越え、管理可能なエンドツーエンドレイテンシで+10.2%(HR@1)と+6.4%(HR@5)の改善を実現している。
- 参考スコア(独自算出の注目度): 2.4757310286238687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses two persistent challenges in sequential recommendation: (i) evidence insufficiency-cold-start sparsity together with noisy, length-varying item texts; and (ii) opaque modeling of dynamic, multi-faceted intents across long/short horizons. We propose R3-REC (Reasoning-Retrieval-Recommendation), a prompt-centric, retrieval-augmented framework that unifies Multi-level User Intent Reasoning, Item Semantic Extraction, Long-Short Interest Polarity Mining, Similar User Collaborative Enhancement, and Reasoning-based Interest Matching and Scoring. Across ML-1M, Games, and Bundle, R3-REC consistently surpasses strong neural and LLM baselines, yielding improvements up to +10.2% (HR@1) and +6.4% (HR@5) with manageable end-to-end latency. Ablations corroborate complementary gains of all modules.
- Abstract(参考訳): 本稿では, 逐次レコメンデーションにおける2つの課題に対処する。
一 騒音、長さの異なる項目のテキストとともに、虚偽のコールドスタートスパーシリティの証拠
(II)長短地平線にまたがる動的多面的意図の不透明なモデリング。
提案するR3-REC(Reasoning-Retrieval-Recommendation)は,マルチレベルユーザインテント推論,アイテムセマンティック抽出,ロングショート興味極性マイニング,類似ユーザ協調強化,推論に基づく関心マッチングとスコーリングを統合化した,高速で検索可能なフレームワークである。
ML-1M、Games、 Bundleの他、R3-RECは強力なニューラルネットワークとLLMベースラインを一貫して越え、管理可能なエンドツーエンドレイテンシで+10.2%(HR@1)と+6.4%(HR@5)の改善を実現している。
アブレーションはすべての加群の相補的なゲインを相関させる。
関連論文リスト
- DeepInterestGR: Mining Deep Multi-Interest Using Multi-Modal LLMs for Generative Recommendation [0.0]
DeepInterestGRはジェネレーティブレコメンデーションフレームワークで3つの重要なイノベーションを紹介している。
我々は,マルチLLM の関心マイニング,奥行きラベルの深層関心,および関心度向上アイテムの離散化を活用している。
3つのAmazon Reviewベンチマークの実験では、DeepInterestGRが最先端のベースラインを一貫して上回っていることが示されている。
論文 参考訳(メタデータ) (2026-02-21T17:03:06Z) - Generative Reasoning Re-ranker [24.386586034456673]
Generative Reasoning Reranker (GR2)は3段階のトレーニングパイプラインを備えたエンドツーエンドのフレームワークである。
GR2は、慎重に設計されたプロンプトとリジェクションサンプリングにより高品質な推論トレースを生成する。
2つの実世界のデータセットの実験では、GR2の有効性が示されている。
論文 参考訳(メタデータ) (2026-02-08T02:12:24Z) - Direct Reasoning Optimization: LLMs Can Reward And Refine Their Own Reasoning for Open-Ended Tasks [6.881699020319577]
大規模言語モデル(LLM)を微調整するための強化学習フレームワークであるダイレクト推論最適化(DRO)を提案する。
DROは新たな報酬信号、Reasoning Reflection Reward (R3)によって誘導される。
DROは、オープンエンドドメインと構造化ドメインの両方にわたって広く適用されながら、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-06-16T10:43:38Z) - R$^2$ec: Towards Large Recommender Models with Reasoning [59.32598867813266]
R$2$ecは、本質的な推論能力を持つ統一された大型レコメンデータモデルである。
R$2$ecは、推論チェーン生成と効率的なアイテム予測の両方を単一のモデルでサポートするデュアルヘッドアーキテクチャを導入している。
注釈付き推論データの欠如を克服するため、強化学習フレームワークであるRecPOを設計する。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - MAgICoRe: Multi-Agent, Iterative, Coarse-to-Fine Refinement for Reasoning [80.15393178083607]
大規模言語モデル(LLM)推論は、テストタイムアグリゲーション戦略、すなわち、複数のサンプルを生成し、生成されたサンプル間で投票することで改善することができる。
Refinementは、LLM生成したフィードバックを使ってソリューションの品質を改善する方法を提供する。
本稿では,問題の難易度を,難易度や難易度に分類することで,過度な改善を回避するMagICoReを提案する。
論文 参考訳(メタデータ) (2024-09-18T17:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。