論文の概要: LLM-Rec: Personalized Recommendation via Prompting Large Language Models
- arxiv url: http://arxiv.org/abs/2307.15780v1
- Date: Mon, 24 Jul 2023 18:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 11:20:15.042740
- Title: LLM-Rec: Personalized Recommendation via Prompting Large Language Models
- Title(参考訳): LLM-Rec:大規模言語モデルによるパーソナライズされたレコメンデーション
- Authors: Hanjia Lyu, Song Jiang, Hanqing Zeng, Yinglong Xia, Jiebo Luo
- Abstract要約: LLM-Recと呼ばれる提案手法は,4つの異なるプロンプト戦略を包含する。
実験により,LLMが生成した拡張入力テキストとオリジナルコンテンツ記述を併用することにより,推薦性能が向上することが確認された。
この発見は、パーソナライズされたコンテンツレコメンデーションのための大規模言語モデルによるレコメンデーション機能を強化するために、多様なプロンプトと入力拡張技術を統合することの重要性を強調している。
- 参考スコア(独自算出の注目度): 72.99854673124297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate various prompting strategies for enhancing personalized
content recommendation performance with large language models (LLMs) through
input augmentation. Our proposed approach, termed LLM-Rec, encompasses four
distinct prompting strategies: (1) basic prompting, (2) recommendation-driven
prompting, (3) engagement-guided prompting, and (4) recommendation-driven +
engagement-guided prompting. Our empirical experiments show that combining the
original content description with the augmented input text generated by LLM
using these prompting strategies leads to improved recommendation performance.
This finding highlights the importance of incorporating diverse prompts and
input augmentation techniques to enhance the recommendation capabilities with
large language models for personalized content recommendation.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)によるパーソナライズされたコンテンツレコメンデーション性能向上のための様々なプロンプト戦略について検討する。
提案手法は,(1)基本プロンプト,(2)レコメンデーション駆動プロンプト,(3)エンゲージメント誘導プロンプト,(4)レコメンデーション駆動+エンゲージメント誘導プロンプトの4つの異なるプロンプト戦略を包含する。
実験の結果,これらのプロンプト戦略を用いてllmが生成した拡張入力テキストとオリジナルコンテンツ記述を組み合わせると,レコメンデーション性能が向上することが示された。
この発見は、パーソナライズされたコンテンツレコメンデーションのための大規模言語モデルによるレコメンデーション機能を強化するために、多様なプロンプトと入力拡張技術を統合することの重要性を強調している。
関連論文リスト
- Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Introspective Tips: Large Language Model for In-Context Decision Making [48.96711664648164]
我々は,大規模言語モデル(LLM)の自己最適化を促進するために,イントロスペクティブティップス(Introspective Tips)を採用している。
本手法は,少数ショットとゼロショットの両方の学習状況において,エージェントの性能を向上させる。
TextWorldにおける100以上のゲームに関する実験は、我々のアプローチの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-05-19T11:20:37Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。