論文の概要: LLM-Rec: Personalized Recommendation via Prompting Large Language Models
- arxiv url: http://arxiv.org/abs/2307.15780v2
- Date: Wed, 16 Aug 2023 17:59:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 16:23:22.318068
- Title: LLM-Rec: Personalized Recommendation via Prompting Large Language Models
- Title(参考訳): LLM-Rec:大規模言語モデルによるパーソナライズされたレコメンデーション
- Authors: Hanjia Lyu, Song Jiang, Hanqing Zeng, Qifan Wang, Si Zhang, Ren Chen,
Chris Leung, Jiajie Tang, Yinglong Xia, Jiebo Luo
- Abstract要約: LLM-Recと呼ばれる提案手法は,4つの異なるプロンプト戦略を包含する。
実験により, 追加入力テキストを組み込むことで, 推薦性能が向上することが示された。
- 参考スコア(独自算出の注目度): 64.56000929489355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate various prompting strategies for enhancing personalized
recommendation performance with large language models (LLMs) through input
augmentation. Our proposed approach, termed LLM-Rec, encompasses four distinct
prompting strategies: (1) basic prompting, (2) recommendation-driven prompting,
(3) engagement-guided prompting, and (4) recommendation-driven +
engagement-guided prompting. Our empirical experiments show that incorporating
the augmented input text generated by LLM leads to improved recommendation
performance. Recommendation-driven and engagement-guided prompting strategies
are found to elicit LLM's understanding of global and local item
characteristics. This finding highlights the importance of leveraging diverse
prompts and input augmentation techniques to enhance the recommendation
capabilities with LLMs.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)によるパーソナライズされたレコメンデーションパフォーマンス向上のための様々なプロンプト戦略について検討する。
提案手法は,(1)基本プロンプト,(2)レコメンデーション駆動プロンプト,(3)エンゲージメント誘導プロンプト,(4)レコメンデーション駆動+エンゲージメント誘導プロンプトの4つの異なるプロンプト戦略を包含する。
実験の結果,llmで生成した拡張入力テキストを組み込むことにより,レコメンデーション性能が向上することが示された。
レコメンデーション駆動およびエンゲージメント誘導によるプロンプト戦略は、llmのグローバルおよびローカルアイテム特性に対する理解を誘発する。
この発見は、LLMの推奨機能を強化するために多様なプロンプトと入力拡張技術を活用することの重要性を強調している。
関連論文リスト
- Exploring the Impact of Large Language Models on Recommender Systems: An
Extensive Review [3.0374530448935113]
本稿では,リフォームレコメンダシステムにおける大規模言語モデルの重要性について述べる。
LLMは、言葉の複雑な解釈において、その適応性を示す、アイテムを推薦するのに非常に熟練している。
トランスフォーメーションの可能性にもかかわらず、入力プロンプトに対する感受性、時には誤解釈、予期せぬ推奨など、課題は続いている。
論文 参考訳(メタデータ) (2024-02-11T00:24:17Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - Towards Goal-oriented Large Language Model Prompting: A Survey [4.9033004387279995]
大規模言語モデル(LLM)は、様々な下流タスクで顕著なパフォーマンスを示している。
本稿では,人為的仮定を保ちながら,設計プロンプトの限界を強調することを目的とする。
論文 参考訳(メタデータ) (2024-01-25T09:47:55Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Large Language Models for Generative Recommendation: A Survey and
Visionary Discussions [44.795525491826766]
大型言語モデル(LLM)はレコメンデーションシステム(RS)のレコメンデーションを生成するために使用できる。
本調査は, LLMに基づく生成レコメンデーションの進展, 方法, 今後の方向性を概観する。
論文 参考訳(メタデータ) (2023-09-03T12:33:47Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。