論文の概要: Towards Next-Generation Recommender Systems: A Benchmark for Personalized Recommendation Assistant with LLMs
- arxiv url: http://arxiv.org/abs/2503.09382v1
- Date: Wed, 12 Mar 2025 13:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:52.107909
- Title: Towards Next-Generation Recommender Systems: A Benchmark for Personalized Recommendation Assistant with LLMs
- Title(参考訳): 次世代レコメンデーションシステムに向けて: LLMを用いたパーソナライズされたレコメンデーションアシスタントのためのベンチマーク
- Authors: Jiani Huang, Shijie Wang, Liang-bo Ning, Wenqi Fan, Shuaiqiang Wang, Dawei Yin, Qing Li,
- Abstract要約: 大規模言語モデル(LLM)はRecSysの基礎アーキテクチャに革命をもたらした。
既存の研究の多くは、リコメンデーションを生成するための固定されたタスク固有のプロンプトテンプレートに依存している。
これは、一般的に使用されるデータセットには、現実世界のレコメンデーションシナリオを反映した高品質なテキストユーザークエリがないためである。
我々は、複雑なユーザレコメンデーションニーズを処理するLLMの能力にアクセスするために設計された新しいデータセットであるRecBench+を紹介する。
- 参考スコア(独自算出の注目度): 38.83854553636802
- License:
- Abstract: Recommender systems (RecSys) are widely used across various modern digital platforms and have garnered significant attention. Traditional recommender systems usually focus only on fixed and simple recommendation scenarios, making it difficult to generalize to new and unseen recommendation tasks in an interactive paradigm. Recently, the advancement of large language models (LLMs) has revolutionized the foundational architecture of RecSys, driving their evolution into more intelligent and interactive personalized recommendation assistants. However, most existing studies rely on fixed task-specific prompt templates to generate recommendations and evaluate the performance of personalized assistants, which limits the comprehensive assessments of their capabilities. This is because commonly used datasets lack high-quality textual user queries that reflect real-world recommendation scenarios, making them unsuitable for evaluating LLM-based personalized recommendation assistants. To address this gap, we introduce RecBench+, a new dataset benchmark designed to access LLMs' ability to handle intricate user recommendation needs in the era of LLMs. RecBench+ encompasses a diverse set of queries that span both hard conditions and soft preferences, with varying difficulty levels. We evaluated commonly used LLMs on RecBench+ and uncovered below findings: 1) LLMs demonstrate preliminary abilities to act as recommendation assistants, 2) LLMs are better at handling queries with explicitly stated conditions, while facing challenges with queries that require reasoning or contain misleading information. Our dataset has been released at https://github.com/jiani-huang/RecBench.git.
- Abstract(参考訳): Recommender System (RecSys) は現代のデジタルプラットフォームで広く使われており、注目されている。
従来のレコメンデーションシステムは、通常、固定的で単純なレコメンデーションシナリオのみに焦点を当てており、インタラクティブなパラダイムで新しく見えないレコメンデーションタスクに一般化することは困難である。
近年、大規模言語モデル(LLM)の進歩はRecSysの基本アーキテクチャに革命をもたらし、よりインテリジェントで対話的なパーソナライズされたレコメンデーションアシスタントへと進化を遂げている。
しかし、既存のほとんどの研究は、特定のタスク固有のプロンプトテンプレートを使用して、パーソナライズされたアシスタントの性能を評価し、それらの能力の包括的な評価を制限する。
これは、一般的に使用されるデータセットは、現実世界のレコメンデーションシナリオを反映した高品質なテキストユーザークエリを欠いているため、LLMベースのパーソナライズされたレコメンデーションアシスタントを評価するには適さないためである。
このギャップに対処するために、私たちはLLMの複雑なユーザレコメンデーションニーズに対処するLLMの能力にアクセスするために設計された新しいデータセットであるRecBench+を紹介します。
RecBench+は、厳しい条件とソフトな嗜好の両方にまたがるさまざまなクエリのセットを含み、難易度は様々である。
RecBench+ でよく用いられる LLM について検討し,以下の結果を得た。
1)LLMは、推薦アシスタントとして機能する予備能力を示す。
2) LLMは明示された条件でクエリを扱うのに優れており, 推論や誤解を招く情報を含むクエリでは問題に直面している。
私たちのデータセットはhttps://github.com/jiani-huang/RecBench.git.comで公開されています。
関連論文リスト
- Real-Time Personalization for LLM-based Recommendation with Customized In-Context Learning [57.28766250993726]
この研究は、モデル更新なしに動的なユーザ関心に適応することを検討する。
既存のLarge Language Model (LLM)ベースのレコメンダは、レコメンデーションチューニング中にコンテキスト内学習能力を失うことが多い。
本稿では,レコメンデーション固有のインコンテキスト学習をリアルタイムレコメンデーションにカスタマイズするRecICLを提案する。
論文 参考訳(メタデータ) (2024-10-30T15:48:36Z) - Enhancing High-order Interaction Awareness in LLM-based Recommender Model [3.7623606729515133]
本稿では,LLMベースのリコメンデータ(ELMRec)について述べる。
我々は、レコメンデーションのためのグラフ構築相互作用のLLM解釈を大幅に強化するために、単語全体の埋め込みを強化する。
ELMRecは、直接およびシーケンシャルなレコメンデーションの両方において、最先端(SOTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-30T06:07:12Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - Taxonomy-Guided Zero-Shot Recommendations with LLMs [45.81618062939684]
大規模言語モデル (LLM) はレコメンデータシステム (RecSys) において有望であることを示す。
項目情報の明瞭度と構造を改善するため,分類学辞書を用いた新しい手法を提案する。
TaxRecは従来のゼロショットアプローチに比べて推奨品質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-20T07:06:58Z) - LLMRS: Unlocking Potentials of LLM-Based Recommender Systems for
Software Purchase [0.6597195879147557]
Large Language Models (LLM) は、ユーザクエリを分析するための有望な結果を提供する。
LLMをベースとしたゼロショットレコメンデーションシステムであるLLMRSを提案し,レビュースコアにユーザレビューをエンコードし,ユーザに適したレコメンデーションを生成する。
論文 参考訳(メタデータ) (2024-01-12T16:33:17Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。