論文の概要: Large Language Models for Generative Recommendation: A Survey and
Visionary Discussions
- arxiv url: http://arxiv.org/abs/2309.01157v1
- Date: Sun, 3 Sep 2023 12:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 21:14:36.767929
- Title: Large Language Models for Generative Recommendation: A Survey and
Visionary Discussions
- Title(参考訳): ジェネレーティブレコメンデーションのための大規模言語モデル:調査と視覚的考察
- Authors: Lei Li, Yongfeng Zhang, Dugang Liu, Li Chen
- Abstract要約: 大型言語モデル(LLM)はレコメンデーションシステム(RS)のレコメンデーションを生成するために使用できる。
本調査は, LLMに基づく生成レコメンデーションの進展, 方法, 今後の方向性を概観する。
- 参考スコア(独自算出の注目度): 44.795525491826766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed the wide adoption of large language models (LLM)
in different fields, especially natural language processing and computer
vision. Such a trend can also be observed in recommender systems (RS). However,
most of related work treat LLM as a component of the conventional
recommendation pipeline (e.g., as a feature extractor) which may not be able to
fully leverage the generative power of LLM. Instead of separating the
recommendation process into multiple stages such as score computation and
re-ranking, this process can be simplified to one stage with LLM: directly
generating recommendations from the complete pool of items. This survey reviews
the progress, methods and future directions of LLM-based generative
recommendation by examining three questions: 1) What generative recommendation
is, 2) Why RS should advance to generative recommendation, and 3) How to
implement LLM-based generative recommendation for various RS tasks. We hope
that the survey can provide the context and guidance needed to explore this
interesting and emerging topic.
- Abstract(参考訳): 近年、様々な分野、特に自然言語処理やコンピュータビジョンにおいて、大きな言語モデル(LLM)が広く採用されているのを目撃している。
このような傾向はレコメンダシステム(rs)でも見られる。
しかしながら、ほとんどの関連する研究は、LLMを従来のレコメンデーションパイプライン(例えば、特徴抽出器)の構成要素として扱い、LLMの生成能力を十分に活用できない可能性がある。
このプロセスは、レコメンデーションプロセスをスコア計算や再ランクといった複数のステージに分離する代わりに、LCMで1つのステージに単純化することができる。
本調査は,llmに基づくジェネレーティブ・レコメンデーションの進捗状況,方法,今後の方向性を3つの質問から検討する。
1) 生成的勧告とは何か
2)なぜRSがジェネレーティブレコメンデーションに進むべきか,そして
3)様々なRSタスクに対するLLMに基づく生成レコメンデーションの実装方法。
この興味深い、新しいトピックを探求するのに必要な状況とガイダンスを提供できることを願っています。
関連論文リスト
- Enhancing High-order Interaction Awareness in LLM-based Recommender Model [3.7623606729515133]
本稿では,LLMベースのリコメンデータ(ELMRec)について述べる。
我々は、レコメンデーションのためのグラフ構築相互作用のLLM解釈を大幅に強化するために、単語全体の埋め込みを強化する。
ELMRecは、直接およびシーケンシャルなレコメンデーションの両方において、最先端(SOTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-30T06:07:12Z) - Can Small Language Models be Good Reasoners for Sequential Recommendation? [34.098264212413305]
SLIM (Step-by-step knowLedge dIstillation fraMework for recommendation)
より大規模な教師モデルのためのユーザ行動系列に基づくCoTプロンプトを導入する。
教師モデルによって生成される理論的根拠をラベルとして利用し、下流のより小さな学生モデルを蒸留する。
論文 参考訳(メタデータ) (2024-03-07T06:49:37Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。