論文の概要: Large Language Model Augmented Narrative Driven Recommendations
- arxiv url: http://arxiv.org/abs/2306.02250v2
- Date: Fri, 21 Jul 2023 07:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 15:39:49.666593
- Title: Large Language Model Augmented Narrative Driven Recommendations
- Title(参考訳): 大言語モデル拡張ナラティブ駆動レコメンデーション
- Authors: Sheshera Mysore, Andrew McCallum, Hamed Zamani
- Abstract要約: ナラティブ・ドリブン・レコメンデーション(NDR)は、ユーザが好みや文脈を冗長に記述してレコメンデーションを募る情報アクセス問題である。
NDRはモデルのための豊富なトレーニングデータがなく、現在のプラットフォームは一般的にこれらの要求をサポートしない。
大規模言語モデル(LLM)を用いてNDRモデルのトレーニングを行う。
- 参考スコア(独自算出の注目度): 51.77271767160573
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Narrative-driven recommendation (NDR) presents an information access problem
where users solicit recommendations with verbose descriptions of their
preferences and context, for example, travelers soliciting recommendations for
points of interest while describing their likes/dislikes and travel
circumstances. These requests are increasingly important with the rise of
natural language-based conversational interfaces for search and recommendation
systems. However, NDR lacks abundant training data for models, and current
platforms commonly do not support these requests. Fortunately, classical
user-item interaction datasets contain rich textual data, e.g., reviews, which
often describe user preferences and context - this may be used to bootstrap
training for NDR models. In this work, we explore using large language models
(LLMs) for data augmentation to train NDR models. We use LLMs for authoring
synthetic narrative queries from user-item interactions with few-shot prompting
and train retrieval models for NDR on synthetic queries and user-item
interaction data. Our experiments demonstrate that this is an effective
strategy for training small-parameter retrieval models that outperform other
retrieval and LLM baselines for narrative-driven recommendation.
- Abstract(参考訳): ナラティブ・ドリブン・レコメンデーション(ndr)は、ユーザーが自分の好みと状況の冗長な記述でレコメンデーションを募集する情報アクセス問題を提示している。
これらの要求は、検索とレコメンデーションシステムのための自然言語ベースの会話インターフェースの台頭と共にますます重要になっている。
しかし、NDRはモデルのための豊富なトレーニングデータがなく、現在のプラットフォームは一般的にこれらの要求をサポートしない。
幸いなことに、古典的なユーザとイテムのインタラクションデータセットには、リッチなテキストデータ(レビューなど、ユーザの好みやコンテキストをしばしば記述する)が含まれており、これはNDRモデルのトレーニングのブートストラップに使用される。
本研究では,大規模言語モデル(LLM)を用いてデータ拡張を行い,NDRモデルのトレーニングを行う。
我々は,合成クエリとユーザ-itemインタラクションデータに基づくNDR検索モデルを用いて,ユーザ-itemインタラクションからの合成ナラティブクエリのオーサリングにLLMを使用する。
提案手法は,他の検索ベースラインやllmベースラインを上回ってナラティブ駆動のレコメンデーションを行う小パラメータ検索モデルを学習するための効果的な戦略であることを示す。
関連論文リスト
- Pearl: A Review-driven Persona-Knowledge Grounded Conversational
Recommendation Dataset [32.62750538281819]
本稿では,PEARLという対話型推薦データセットを提案する。
実世界のレビューから詳細なペルソナと知識を取得し,57k以上の対話を伴う大規模データセットを構築した。
実験の結果, PEARLにおける発話には, より具体的なユーザの嗜好, 対象領域における専門知識の提示, 従来のデータセットよりも対話コンテキストに関連性のあるレコメンデーションが提供されることがわかった。
論文 参考訳(メタデータ) (2024-03-07T12:57:16Z) - Parameter-Efficient Conversational Recommender System as a Language
Processing Task [52.47087212618396]
会話レコメンデータシステム(CRS)は,自然言語会話を通じてユーザの嗜好を喚起することで,ユーザに対して関連項目を推薦することを目的としている。
先行作業では、アイテムのセマンティック情報、対話生成のための言語モデル、関連する項目のランク付けのためのレコメンデーションモジュールとして、外部知識グラフを利用することが多い。
本稿では、自然言語の項目を表現し、CRSを自然言語処理タスクとして定式化する。
論文 参考訳(メタデータ) (2024-01-25T14:07:34Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Large Language Models as Zero-Shot Conversational Recommenders [52.57230221644014]
ゼロショット設定における代表的大言語モデルを用いた会話推薦タスクに関する実証的研究を行った。
我々は、人気のあるディスカッションサイトをスクラップして、レコメンデーション関連の会話のデータセットを構築した。
我々は、微調整なしでも、大規模な言語モデルは既存の微調整された会話レコメンデーションモデルより優れていることを観察する。
論文 参考訳(メタデータ) (2023-08-19T15:29:45Z) - Could Small Language Models Serve as Recommenders? Towards Data-centric
Cold-start Recommendations [38.91330250981614]
本稿では,言語モデルの文脈内学習に基づくシンプルだが効果的なアプローチであるPromptRecを提案する。
本稿では,データ中心パイプラインを用いたレコメンデータシステムのための小型言語モデルを提案する。
私たちの知る限りでは、システムコールドスタートレコメンデーション問題に取り組む最初の研究である。
論文 参考訳(メタデータ) (2023-06-29T18:50:12Z) - AUGUST: an Automatic Generation Understudy for Synthesizing
Conversational Recommendation Datasets [56.052803235932686]
本稿では,大規模かつ高品質なレコメンデーションダイアログを生成する新しい自動データセット合成手法を提案する。
i)従来のレコメンデーションデータセットからの豊富なパーソナライズされたユーザプロファイル、(ii)知識グラフからの豊富な外部知識、(iii)人間対人間会話レコメンデーションデータセットに含まれる会話能力。
論文 参考訳(メタデータ) (2023-06-16T05:27:14Z) - Conversational Recommendation as Retrieval: A Simple, Strong Baseline [4.737923227003888]
会話レコメンデーションシステム(CRS)は,自然言語会話を通じて適切な項目をユーザに推薦することを目的としている。
ほとんどのCRSアプローチは、これらの会話によって提供されるシグナルを効果的に利用しない。
CRS項目推薦タスクに対して、代替情報検索(IR)スタイルのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-23T06:21:31Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - Bootstrapping Relation Extractors using Syntactic Search by Examples [47.11932446745022]
非NLP専門家によって迅速に実行できるトレーニングデータセットのブートストラッププロセスを提案する。
フレンドリーなバイサンプル構文を公開する構文グラフよりも検索エンジンを利用する。
得られたモデルは,手作業による注釈付きデータや遠隔監視から得られたデータに基づいて訓練されたモデルと競合することを示す。
論文 参考訳(メタデータ) (2021-02-09T18:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。