論文の概要: Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations
- arxiv url: http://arxiv.org/abs/2405.19612v2
- Date: Sun, 08 Sep 2024 20:32:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 23:33:15.325598
- Title: Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations
- Title(参考訳): キーワード駆動型検索型大規模言語モデルによるコールドスタートユーザ推薦
- Authors: Hai-Dang Kieu, Minh Duc Nguyen, Thanh-Son Nguyen, Dung D. Le,
- Abstract要約: コールドスタートユーザレストランレコメンデーションの問題に対処するフレームワークであるKALM4Recを紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 5.374800961359305
- License:
- Abstract: Recent advancements in Large Language Models (LLMs) have shown significant potential in enhancing recommender systems. However, addressing the cold-start recommendation problem, where users lack historical data, remains a considerable challenge. In this paper, we introduce KALM4Rec (Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations), a novel framework specifically designed to tackle this problem by requiring only a few input keywords from users in a practical scenario of cold-start user restaurant recommendations. KALM4Rec operates in two main stages: candidates retrieval and LLM-based candidates re-ranking. In the first stage, keyword-driven retrieval models are used to identify potential candidates, addressing LLMs' limitations in processing extensive tokens and reducing the risk of generating misleading information. In the second stage, we employ LLMs with various prompting strategies, including zero-shot and few-shot techniques, to re-rank these candidates by integrating multiple examples directly into the LLM prompts. Our evaluation, using a Yelp restaurant dataset with user reviews from three English-speaking cities, shows that our proposed framework significantly improves recommendation quality. Specifically, the integration of in-context instructions with LLMs for re-ranking markedly enhances the performance of the cold-start user recommender system.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は,レコメンダシステムの強化に大きな可能性を示している。
しかし、ユーザーが過去のデータを欠いているコールドスタートレコメンデーション問題に対処することは、依然として大きな課題である。
本稿では,コールドスタートのユーザレストランレコメンデーションの実践シナリオにおいて,ユーザからの入力キーワードを少しだけ必要とすることで,この問題に対処するための新しいフレームワークであるKALM4Rec(Keyword-driven Retrieval-Augmented Large Language Models for Cold-start User Recommendations)を紹介する。
KALM4Recは、候補検索とLLMベースの候補の再ランクの2つの主要な段階で動作する。
第1段階では、キーワード駆動検索モデルを用いて潜在的な候補を特定し、広範囲なトークン処理におけるLLMの制限に対処し、誤った情報を生成するリスクを低減する。
第2段階では、ゼロショットや少数ショットのテクニックを含む様々なプロンプト戦略を持つLSMを用いて、複数の例をLSMプロンプトに直接組み込むことで、これらの候補を再ランクする。
Yelpのレストランデータセットを用いて、英語圏の3都市からのユーザレビューを行い、提案したフレームワークが推奨品質を大幅に改善したことを示す。
具体的には、コールドスタートユーザレコメンデータシステムの性能を著しく向上させるために、インコンテキスト命令とLLMを統合する。
関連論文リスト
- Towards a Unified Paradigm: Integrating Recommendation Systems as a New Language in Large Models [33.02146794292383]
大規模モデルにおける新しい言語としてのレコメンデーションシステム(Integrating Recommendation Systems as a New Language in Large Models)について紹介する。
RSLLMは、従来のレコメンデーションモデルからのIDベースのアイテム埋め込みとテキストアイテムの特徴を組み合わせた独自のプロンプト方式を使用している。
ユーザのシーケンシャルな振る舞いを別の言語として扱い、プロジェクタを使用してID埋め込みとLLMの入力空間を整列する。
論文 参考訳(メタデータ) (2024-12-22T09:08:46Z) - Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - LLMTreeRec: Unleashing the Power of Large Language Models for Cold-Start Recommendations [67.57808826577678]
大規模言語モデル(LLM)は、言語分析タスクとしてレコメンデーションタスクをモデル化し、その膨大なオープンワールド知識に基づいてゼロショット結果を提供する。
しかし、アイテムコーパスの大規模化は、LLMに挑戦し、実際のレコメンデーションシステムにデプロイすることが不可能な、相当量のトークン消費につながる。
LLMレコメンデーションフレームワークLLMTreeRecを導入し、全ての項目をアイテムツリーに構造化し、LLMのアイテム検索の効率を向上させる。
論文 参考訳(メタデータ) (2024-03-31T14:41:49Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。