論文の概要: USB-Rec: An Effective Framework for Improving Conversational Recommendation Capability of Large Language Model
- arxiv url: http://arxiv.org/abs/2509.20381v1
- Date: Sat, 20 Sep 2025 22:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.483542
- Title: USB-Rec: An Effective Framework for Improving Conversational Recommendation Capability of Large Language Model
- Title(参考訳): USB-Rec:大規模言語モデルの会話推薦能力向上のための効果的なフレームワーク
- Authors: Jianyu Wen, Jingyun Wang, Cilin Yan, Jiayin Cai, Xiaolong Jiang, Ying Zhang,
- Abstract要約: 大言語モデル (LLM) は会話レコメンダシステム (CRS) で広く使われている。
そこで本研究では,USB-Rec(User-Simulator-Based framework)を統合化したトレーニング推論フレームワークを提案する。
我々の手法は、常に従来の最先端の手法より優れています。
- 参考スコア(独自算出の注目度): 14.628459519236658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Large Language Models (LLMs) have been widely employed in Conversational Recommender Systems (CRSs). Unlike traditional language model approaches that focus on training, all existing LLMs-based approaches are mainly centered around how to leverage the summarization and analysis capabilities of LLMs while ignoring the issue of training. Therefore, in this work, we propose an integrated training-inference framework, User-Simulator-Based framework (USB-Rec), for improving the performance of LLMs in conversational recommendation at the model level. Firstly, we design a LLM-based Preference Optimization (PO) dataset construction strategy for RL training, which helps the LLMs understand the strategies and methods in conversational recommendation. Secondly, we propose a Self-Enhancement Strategy (SES) at the inference stage to further exploit the conversational recommendation potential obtained from RL training. Extensive experiments on various datasets demonstrate that our method consistently outperforms previous state-of-the-art methods.
- Abstract(参考訳): 近年,Large Language Models (LLMs) は Conversational Recommender Systems (CRSs) に広く採用されている。
トレーニングに重点を置く従来の言語モデルアプローチとは異なり、既存のLLMベースのアプローチはすべて、トレーニングの問題を無視しながら、LLMの要約と分析能力を活用する方法を中心にしている。
そこで本研究では,モデルレベルでの対話的レコメンデーションにおいて,LLMの性能を向上させるためのトレーニング推論フレームワークであるユーザ-シミュレータベースフレームワーク(USB-Rec)を提案する。
まず,LLM をベースとした参照最適化 (PO) データセット構築戦略を設計し,LL トレーニングにおける提案手法の理解を支援する。
第2に、RLトレーニングから得られる会話推薦の可能性をさらに活用するために、推論段階での自己強調戦略(SES)を提案する。
各種データセットに対する大規模な実験により,本手法は従来手法よりも一貫して優れていることが示された。
関連論文リスト
- DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
現在の最先端の手法は、最適な結果を得るために微調整された大規模言語モデル(LLM)に依存している。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
The method achieves Hits@10 performance of +23.8% on Beauty, +37.5% on Toys & Games, and -1.8% on Sports & Outdoors。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - Direct Preference Optimization for LLM-Enhanced Recommendation Systems [33.54698201942643]
大規模言語モデル(LLM)は、幅広い領域で顕著なパフォーマンスを示している。
我々は,DPOをLLM強化レコメンデーションシステムに統合するフレームワークであるDPO4Recを提案する。
大規模な実験により、DPO4Recは強いベースラインよりも性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。