論文の概要: Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models
- arxiv url: http://arxiv.org/abs/2304.03153v1
- Date: Thu, 6 Apr 2023 15:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 13:41:13.064738
- Title: Zero-Shot Next-Item Recommendation using Large Pretrained Language
Models
- Title(参考訳): 大規模事前学習言語モデルを用いたゼロショット次項目推薦
- Authors: Lei Wang, Ee-Peng Lim
- Abstract要約: 我々は,Zero-Shot Next-Item Recommendation (NIR) と呼ばれるプロンプト戦略を提案する。
我々の戦略は、GPT-3がユーザの好みを捉えたサブタスクを運ぶための3段階のプロンプトを取り入れている。
The proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieved to strong zero-shot performance。
- 参考スコア(独自算出の注目度): 16.14557830316297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have achieved impressive zero-shot performance
in various natural language processing (NLP) tasks, demonstrating their
capabilities for inference without training examples. Despite their success, no
research has yet explored the potential of LLMs to perform next-item
recommendations in the zero-shot setting. We have identified two major
challenges that must be addressed to enable LLMs to act effectively as
recommenders. First, the recommendation space can be extremely large for LLMs,
and LLMs do not know about the target user's past interacted items and
preferences. To address this gap, we propose a prompting strategy called
Zero-Shot Next-Item Recommendation (NIR) prompting that directs LLMs to make
next-item recommendations. Specifically, the NIR-based strategy involves using
an external module to generate candidate items based on user-filtering or
item-filtering. Our strategy incorporates a 3-step prompting that guides GPT-3
to carry subtasks that capture the user's preferences, select representative
previously watched movies, and recommend a ranked list of 10 movies. We
evaluate the proposed approach using GPT-3 on MovieLens 100K dataset and show
that it achieves strong zero-shot performance, even outperforming some strong
sequential recommendation models trained on the entire training dataset. These
promising results highlight the ample research opportunities to use LLMs as
recommenders. The code can be found at
https://github.com/AGI-Edgerunners/LLM-Next-Item-Rec.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて印象的なゼロショット性能を達成し、例を訓練せずに推論の能力を実証している。
彼らの成功にもかかわらず、ゼロショット設定で次回の推奨を行うLLMの可能性についてはまだ研究されていない。
LLMがレコメンデーションとして効果的に機能するために対処しなければならない2つの大きな課題を特定した。
まず、リコメンデーションスペースはllmにとって非常に大きく、llmはターゲットユーザーの過去のやりとりされたアイテムや好みを知らない。
このギャップに対処するため、我々はZero-Shot Next-Item Recommendation (NIR)と呼ばれるプロンプト戦略を提案する。
具体的には、NIRベースの戦略では、外部モジュールを使用してユーザフィルタリングやアイテムフィルタリングに基づいて候補アイテムを生成する。
弊社の戦略は、3段階のプロンプトで、GPT-3はユーザの好みを捉えたサブタスクを携帯し、事前に視聴した映画を選別し、10本の映画を推薦する。
提案手法をmovielens 100kデータセット上でgpt-3を用いて評価し,トレーニングデータセット全体でトレーニングされた強い逐次レコメンデーションモデルを上回っても強いゼロショット性能が得られることを示した。
これらの有望な結果は、LLMをレコメンデーションとして使うための十分な研究機会を強調している。
コードはhttps://github.com/AGI-Edgerunners/LLM-Next-Item-Recで見ることができる。
関連論文リスト
- HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。