論文の概要: Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations
- arxiv url: http://arxiv.org/abs/2405.19612v2
- Date: Sun, 08 Sep 2024 20:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 23:33:15.325598
- Title: Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations
- Title(参考訳): キーワード駆動型検索型大規模言語モデルによるコールドスタートユーザ推薦
- Authors: Hai-Dang Kieu, Minh Duc Nguyen, Thanh-Son Nguyen, Dung D. Le,
- Abstract要約: コールドスタートユーザレストランレコメンデーションの問題に対処するフレームワークであるKALM4Recを紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 5.374800961359305
- License:
- Abstract: Recent advancements in Large Language Models (LLMs) have shown significant potential in enhancing recommender systems. However, addressing the cold-start recommendation problem, where users lack historical data, remains a considerable challenge. In this paper, we introduce KALM4Rec (Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations), a novel framework specifically designed to tackle this problem by requiring only a few input keywords from users in a practical scenario of cold-start user restaurant recommendations. KALM4Rec operates in two main stages: candidates retrieval and LLM-based candidates re-ranking. In the first stage, keyword-driven retrieval models are used to identify potential candidates, addressing LLMs' limitations in processing extensive tokens and reducing the risk of generating misleading information. In the second stage, we employ LLMs with various prompting strategies, including zero-shot and few-shot techniques, to re-rank these candidates by integrating multiple examples directly into the LLM prompts. Our evaluation, using a Yelp restaurant dataset with user reviews from three English-speaking cities, shows that our proposed framework significantly improves recommendation quality. Specifically, the integration of in-context instructions with LLMs for re-ranking markedly enhances the performance of the cold-start user recommender system.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は,レコメンダシステムの強化に大きな可能性を示している。
しかし、ユーザーが過去のデータを欠いているコールドスタートレコメンデーション問題に対処することは、依然として大きな課題である。
本稿では,コールドスタートのユーザレストランレコメンデーションの実践シナリオにおいて,ユーザからの入力キーワードを少しだけ必要とすることで,この問題に対処するための新しいフレームワークであるKALM4Rec(Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations)を紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
第1段階では、キーワード駆動検索モデルを用いて潜在的な候補を特定し、広範囲なトークン処理におけるLLMの制限に対処し、誤った情報を生成するリスクを低減する。
第2段階では、ゼロショットや少数ショットのテクニックを含む様々なプロンプト戦略を持つLSMを用いて、複数の例をLSMプロンプトに直接組み込むことで、これらの候補を再ランクする。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善したことを示す。
具体的には、コールドスタートユーザレコメンデータシステムの性能を著しく向上させるために、インコンテキスト命令とLLMを統合する。
関連論文リスト
- Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - Could Small Language Models Serve as Recommenders? Towards Data-centric
Cold-start Recommendations [38.91330250981614]
本稿では,言語モデルの文脈内学習に基づくシンプルだが効果的なアプローチであるPromptRecを提案する。
本稿では,データ中心パイプラインを用いたレコメンデータシステムのための小型言語モデルを提案する。
私たちの知る限りでは、システムコールドスタートレコメンデーション問題に取り組む最初の研究である。
論文 参考訳(メタデータ) (2023-06-29T18:50:12Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。