論文の概要: Beyond Retrieval: Generating Narratives in Conversational Recommender Systems
- arxiv url: http://arxiv.org/abs/2410.16780v1
- Date: Tue, 22 Oct 2024 07:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:47.629958
- Title: Beyond Retrieval: Generating Narratives in Conversational Recommender Systems
- Title(参考訳): 検索を超えて - 会話レコメンダシステムにおけるナラティブの生成
- Authors: Krishna Sayana, Raghavendra Vasudeva, Yuri Vasilevski, Kun Su, Liam Hebert, Hubert Pham, Ambarish Jash, Sukhdeep Sodhi,
- Abstract要約: 本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
- 参考スコア(独自算出の注目度): 4.912663905306209
- License:
- Abstract: The recent advances in Large Language Model's generation and reasoning capabilities present an opportunity to develop truly conversational recommendation systems. However, effectively integrating recommender system knowledge into LLMs for natural language generation which is tailored towards recommendation tasks remains a challenge. This paper addresses this challenge by making two key contributions. First, we introduce a new dataset (REGEN) for natural language generation tasks in conversational recommendations. REGEN (Reviews Enhanced with GEnerative Narratives) extends the Amazon Product Reviews dataset with rich user narratives, including personalized explanations of product preferences, product endorsements for recommended items, and summaries of user purchase history. REGEN is made publicly available to facilitate further research. Furthermore, we establish benchmarks using well-known generative metrics, and perform an automated evaluation of the new dataset using a rater LLM. Second, the paper introduces a fusion architecture (CF model with an LLM) which serves as a baseline for REGEN. And to the best of our knowledge, represents the first attempt to analyze the capabilities of LLMs in understanding recommender signals and generating rich narratives. We demonstrate that LLMs can effectively learn from simple fusion architectures utilizing interaction-based CF embeddings, and this can be further enhanced using the metadata and personalization data associated with items. Our experiments show that combining CF and content embeddings leads to improvements of 4-12% in key language metrics compared to using either type of embedding individually. We also provide an analysis to interpret how CF and content embeddings contribute to this new generative task.
- Abstract(参考訳): 近年のLarge Language Modelの生成と推論能力の進歩は、真の対話型レコメンデーションシステムを開発する機会となる。
しかし,レコメンデーションタスクに適した自然言語生成のためのLLMに,レコメンデーションシステム知識を効果的に統合することが課題である。
本稿は2つの重要な貢献によってこの問題に対処する。
まず、会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
REGEN(Reviews Enhanced with GEnerative Narratives)は、Amazon Product Reviewsデータセットを拡張して、製品好みのパーソナライズされた説明、推奨アイテムの製品推奨、ユーザ購入履歴の要約など、リッチなユーザストーリを提供する。
REGENは、さらなる研究を促進するために公開されている。
さらに、よく知られた生成指標を用いてベンチマークを作成し、レーダLLMを用いて新しいデータセットの自動評価を行う。
第2に,REGENのベースラインとして機能する核融合アーキテクチャ (CF モデルと LLM) を提案する。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
LLMは、インタラクションベースのCF埋め込みを利用して、単純な融合アーキテクチャから効果的に学習できることを示し、これは、アイテムに関連するメタデータとパーソナライズデータを用いてさらに強化することができる。
実験の結果,CFとコンテンツ埋め込みを組み合わせることで,各種類の埋め込みを個別に使用する場合と比較して,キー言語メトリクスの4~12%の改善が得られた。
また、この新たな生成タスクにおいて、CFとコンテンツ埋め込みがどのように貢献するかを理解するための分析も提供する。
関連論文リスト
- Collaborative Retrieval for Large Language Model-based Conversational Recommender Systems [65.75265303064654]
対話レコメンデーションシステム(CRS)は、ユーザとの対話を通じてパーソナライズされたレコメンデーションを提供することを目的としている。
大規模言語モデル(LLM)は、コンテキスト対応のユーザの好みに対する理解が優れているため、CRSを強化する。
CRAG(Collaborative Retrieval Augmented Generation for LLM-based CRS)を提案する。
論文 参考訳(メタデータ) (2025-02-19T22:47:40Z) - RALLRec: Improving Retrieval Augmented Large Language Model Recommendation with Representation Learning [24.28601381739682]
大規模言語モデル (LLM) は、ユーザの振る舞いを理解するためのレコメンデーションシステムに統合されている。
既存のRAGメソッドは主にテキストのセマンティクスに依存しており、しばしば最も関連性の高い項目を組み込むことができない。
検索強化大言語モデル推薦(RALLRec)のための表現学習を提案する。
論文 参考訳(メタデータ) (2025-02-10T02:15:12Z) - Towards a Unified Paradigm: Integrating Recommendation Systems as a New Language in Large Models [33.02146794292383]
大規模モデルにおける新しい言語としてのレコメンデーションシステム(Integrating Recommendation Systems as a New Language in Large Models)について紹介する。
RSLLMは、従来のレコメンデーションモデルからのIDベースのアイテム埋め込みとテキストアイテムの特徴を組み合わせた独自のプロンプト方式を使用している。
ユーザのシーケンシャルな振る舞いを別の言語として扱い、プロジェクタを使用してID埋め込みとLLMの入力空間を整列する。
論文 参考訳(メタデータ) (2024-12-22T09:08:46Z) - Personalized News Recommendation System via LLM Embedding and Co-Occurrence Patterns [6.4561443264763625]
ニュースレコメンデーション(NR)では、システムは大量のクリックされたニューステキストを理解し処理し、候補のニュースクリックの確率を推測しなければならない。
本稿では,LLM埋め込みと共起パターン(LECOP)を用いた新しいNRアルゴリズムを提案する。
大規模実験により,提案手法の優れた性能を実証した。
論文 参考訳(メタデータ) (2024-11-09T03:01:49Z) - A Prompting-Based Representation Learning Method for Recommendation with Large Language Models [2.1161973970603998]
本稿では,Recommender SystemsにおけるLarge Language Models(LLM)の言語能力を高めるために,Prompting-based Representation Learning Method for Recommendation(P4R)を紹介する。
P4Rフレームワークでは、パーソナライズされたアイテムプロファイルを作成するためにLSMプロンプト戦略を利用する。
評価では、P4Rと最先端のRecommenderモデルを比較し、プロンプトベースのプロファイル生成の品質を評価する。
論文 参考訳(メタデータ) (2024-09-25T07:06:14Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - Large Language Models for Data Annotation and Synthesis: A Survey [49.8318827245266]
本調査は,データアノテーションと合成のための大規模言語モデルの有用性に焦点を当てる。
LLMがアノテートできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションと合成にLLMを使用する際の主な課題と制限に関する詳細な議論を含む。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。