論文の概要: Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations
- arxiv url: http://arxiv.org/abs/2312.13557v1
- Date: Thu, 21 Dec 2023 03:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 16:05:10.598138
- Title: Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations
- Title(参考訳): 大規模言語モデルを用いたマイナショットレコメンダシステムの実現 -エンハンスド表現
- Authors: Zhoumeng Wang
- Abstract要約: 大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems utilizing explicit feedback have witnessed significant
advancements and widespread applications over the past years. However,
generating recommendations in few-shot scenarios remains a persistent
challenge. Recently, large language models (LLMs) have emerged as a promising
solution for addressing natural language processing (NLP) tasks, thereby
offering novel insights into tackling the few-shot scenarios encountered by
explicit feedback-based recommender systems. To bridge recommender systems and
LLMs, we devise a prompting template that generates user and item
representations based on explicit feedback. Subsequently, we integrate these
LLM-processed representations into various recommendation models to evaluate
their significance across diverse recommendation tasks. Our ablation
experiments and case study analysis collectively demonstrate the effectiveness
of LLMs in processing explicit feedback, highlighting that LLMs equipped with
generative and logical reasoning capabilities can effectively serve as a
component of recommender systems to enhance their performance in few-shot
scenarios. Furthermore, the broad adaptability of LLMs augments the
generalization potential of recommender models, despite certain inherent
constraints. We anticipate that our study can inspire researchers to delve
deeper into the multifaceted dimensions of LLMs's involvement in recommender
systems and contribute to the advancement of the explicit feedback-based
recommender systems field.
- Abstract(参考訳): 明示的なフィードバックを利用したレコメンダシステムは、過去数年間で大きな進歩と広範な応用を目撃してきた。
しかし、いくつかのシナリオでレコメンデーションを生成することは、依然として永続的な課題である。
近年,大規模言語モデル (LLM) が自然言語処理 (NLP) タスクに対処するための有望なソリューションとして登場し,明示的なフィードバックベースのレコメンデータシステムによって発生する少数のシナリオに対処するための新たな洞察を提供する。
推薦システムとLLMをブリッジするために,明示的なフィードバックに基づいてユーザとアイテムの表現を生成するプロンプトテンプレートを考案した。
その後、これらのLLM処理された表現を様々なレコメンデーションモデルに統合し、様々なレコメンデーションタスクにおけるそれらの意義を評価する。
本研究は,LLMの明示的なフィードバック処理における有効性を総合的に検証し,生成的および論理的推論能力を備えたLLMが,数ショットシナリオにおける性能向上のために,レコメンダシステムの構成要素として有効であることを示した。
さらに、LLMの広範な適応性は、特定の固有の制約にもかかわらず、レコメンダモデルの一般化可能性を高める。
本研究は,llmsのレコメンダシステムへの関与の多面的次元を深く掘り下げ,明示的なフィードバックベースのレコメンダシステム分野の進展に寄与することを期待した。
関連論文リスト
- Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - Towards Next-Generation LLM-based Recommender Systems: A Survey and Beyond [41.08716571288641]
本論では,本質的なレコメンデーションに端を発する新しい分類法を紹介する。
本稿では,レコメンデーションシステムの発達過程をより正確に反映した3層構造を提案する。
論文 参考訳(メタデータ) (2024-10-10T08:22:04Z) - Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - All Roads Lead to Rome: Unveiling the Trajectory of Recommender Systems Across the LLM Era [63.649070507815715]
我々は、リコメンデータシステムをより広い視野に統合し、将来の研究のためのより包括的なソリューションの道を開くことを目指しています。
我々は、リストワイズレコメンデーションと会話レコメンデーションを通じて、現代のレコメンデーションシステムの2つの進化経路を特定する。
本稿では,ユーザの獲得コストを削減しつつ,推薦情報の有効性を高めることを指摘する。
論文 参考訳(メタデータ) (2024-07-14T05:02:21Z) - LANE: Logic Alignment of Non-tuning Large Language Models and Online Recommendation Systems for Explainable Reason Generation [15.972926854420619]
大きな言語モデル(LLM)を活用することで、包括的なレコメンデーションロジック生成の新しい機会を提供する。
レコメンデーションタスクのための微調整LDMモデルは、計算コストと既存のシステムとのアライメントの問題を引き起こす。
本研究は,LLMとオンラインレコメンデーションシステムとの連携を,LLMのチューニングを伴わない効果的戦略LANEを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:20:31Z) - Exploring the Impact of Large Language Models on Recommender Systems: An Extensive Review [2.780460221321639]
本稿では,リフォームレコメンダシステムにおける大規模言語モデルの重要性について述べる。
LLMは、言葉の複雑な解釈において、その適応性を示す、アイテムを推薦するのに非常に熟練している。
トランスフォーメーションの可能性にもかかわらず、入力プロンプトに対する感受性、時には誤解釈、予期せぬ推奨など、課題は続いている。
論文 参考訳(メタデータ) (2024-02-11T00:24:17Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。