論文の概要: Enhancing ID-based Recommendation with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.02041v1
- Date: Mon, 04 Nov 2024 12:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:46:35.313029
- Title: Enhancing ID-based Recommendation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたIDベースのレコメンデーションの強化
- Authors: Lei Chen, Chen Gao, Xiaoyi Du, Hengliang Luo, Depeng Jin, Yong Li, Meng Wang,
- Abstract要約: 我々は"LLM for ID-based Recommendation"(LLM4IDRec)と呼ばれる先駆的なアプローチを導入する。
この革新的なアプローチは、IDデータにのみ依存しながらLLMの機能を統合することで、以前のテキストデータへの依存から逸脱する。
LLM4IDRecアプローチの有効性を3つの広く利用されているデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 47.14302346325941
- License:
- Abstract: Large Language Models (LLMs) have recently garnered significant attention in various domains, including recommendation systems. Recent research leverages the capabilities of LLMs to improve the performance and user modeling aspects of recommender systems. These studies primarily focus on utilizing LLMs to interpret textual data in recommendation tasks. However, it's worth noting that in ID-based recommendations, textual data is absent, and only ID data is available. The untapped potential of LLMs for ID data within the ID-based recommendation paradigm remains relatively unexplored. To this end, we introduce a pioneering approach called "LLM for ID-based Recommendation" (LLM4IDRec). This innovative approach integrates the capabilities of LLMs while exclusively relying on ID data, thus diverging from the previous reliance on textual data. The basic idea of LLM4IDRec is that by employing LLM to augment ID data, if augmented ID data can improve recommendation performance, it demonstrates the ability of LLM to interpret ID data effectively, exploring an innovative way for the integration of LLM in ID-based recommendation. We evaluate the effectiveness of our LLM4IDRec approach using three widely-used datasets. Our results demonstrate a notable improvement in recommendation performance, with our approach consistently outperforming existing methods in ID-based recommendation by solely augmenting input data.
- Abstract(参考訳): 大規模言語モデル(LLM)は最近、レコメンデーションシステムを含む様々な領域で大きな注目を集めている。
最近の研究は、LLMの能力を活用してレコメンダシステムの性能とユーザモデリングの側面を改善している。
これらの研究は主に、レコメンデーションタスクにおけるテキストデータの解釈にLLMを活用することに焦点を当てている。
ただし、IDベースのレコメンデーションでは、テキストデータが欠落しており、IDデータのみが利用可能である点には注意が必要だ。
IDベースのレコメンデーションパラダイムにおけるIDデータに対するLLMの未解決の可能性は、いまだに解明されていない。
この目的のために,IDベースのレコメンデーションのためのLLM (LLM4IDRec) という先駆的なアプローチを導入する。
この革新的なアプローチは、IDデータにのみ依存しながらLLMの機能を統合することで、以前のテキストデータへの依存から逸脱する。
LLM4IDRecの基本的な考え方は、LLMを用いてIDデータを増大させることで、拡張IDデータがレコメンデーション性能を向上させることができれば、LLMがIDデータを効果的に解釈できることを示し、LLMをIDベースのレコメンデーションに統合するための革新的な方法を探ることである。
LLM4IDRecアプローチの有効性を3つの広く利用されているデータセットを用いて評価した。
提案手法は,入力データのみを増大させることで,IDベースのレコメンデーションにおける既存の手法を一貫して上回りながら,レコメンデーション性能の顕著な向上を示す。
関連論文リスト
- Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - Enhancing High-order Interaction Awareness in LLM-based Recommender Model [3.7623606729515133]
本稿では,LLMベースのリコメンデータ(ELMRec)について述べる。
我々は、レコメンデーションのためのグラフ構築相互作用のLLM解釈を大幅に強化するために、単語全体の埋め込みを強化する。
ELMRecは、直接およびシーケンシャルなレコメンデーションの両方において、最先端(SOTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-30T06:07:12Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - RA-Rec: An Efficient ID Representation Alignment Framework for LLM-based Recommendation [9.606111709136675]
LLMに基づくレコメンデーションのための効率的なID表現フレームワークであるRA-Recを提案する。
RA-Recは最先端のメソッドを大幅に上回り、最大3.0%のHitRate@100の改善を実現している。
論文 参考訳(メタデータ) (2024-02-07T02:14:58Z) - E4SRec: An Elegant Effective Efficient Extensible Solution of Large
Language Models for Sequential Recommendation [30.16954700102393]
シークエンシャルレコメンデーション(E4SRec)のための大規模言語モデルに対するエレガント効果的な効率的な拡張性ソリューションを提案する。
E4SRecは、アイテムを表現するためにIDのみを使用する従来のレコメンデータシステムと、Large Language Modelsをシームレスに統合する。
論文 参考訳(メタデータ) (2023-12-05T02:50:18Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。