論文の概要: E4SRec: An Elegant Effective Efficient Extensible Solution of Large
Language Models for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2312.02443v1
- Date: Tue, 5 Dec 2023 02:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:04:04.823788
- Title: E4SRec: An Elegant Effective Efficient Extensible Solution of Large
Language Models for Sequential Recommendation
- Title(参考訳): E4SRec: シーケンシャルレコメンデーションのための大規模言語モデルのエレガントな効率的な拡張可能なソリューション
- Authors: Xinhang Li, Chong Chen, Xiangyu Zhao, Yong Zhang, Chunxiao Xing
- Abstract要約: シークエンシャルレコメンデーション(E4SRec)のための大規模言語モデルに対するエレガント効果的な効率的な拡張性ソリューションを提案する。
E4SRecは、アイテムを表現するためにIDのみを使用する従来のレコメンデータシステムと、Large Language Modelsをシームレスに統合する。
- 参考スコア(独自算出の注目度): 30.16954700102393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advancements in Large Language Models (LLMs) have sparked interest
in harnessing their potential within recommender systems. Since LLMs are
designed for natural language tasks, existing recommendation approaches have
predominantly transformed recommendation tasks into open-domain natural
language generation tasks. However, this approach necessitates items to possess
rich semantic information, often generates out-of-range results, and suffers
from notably low efficiency and limited extensibility. Furthermore, practical
ID-based recommendation strategies, reliant on a huge number of unique
identities (IDs) to represent users and items, have gained prominence in
real-world recommender systems due to their effectiveness and efficiency.
Nevertheless, the incapacity of LLMs to model IDs presents a formidable
challenge when seeking to leverage LLMs for personalized recommendations. In
this paper, we introduce an Elegant Effective Efficient Extensible solution for
large language models for Sequential Recommendation (E4SRec), which seamlessly
integrates LLMs with traditional recommender systems that exclusively utilize
IDs to represent items. Specifically, E4SRec takes ID sequences as inputs,
ensuring that the generated outputs fall within the candidate lists.
Furthermore, E4SRec possesses the capability to generate the entire ranking
list in a single forward process, and demands only a minimal set of pluggable
parameters, which are trained for each dataset while keeping the entire LLM
frozen. We substantiate the effectiveness, efficiency, and extensibility of our
proposed E4SRec through comprehensive experiments conducted on four widely-used
real-world datasets. The implementation code is accessible at
https://github.com/HestiaSky/E4SRec/.
- Abstract(参考訳): 大規模言語モデル(llm)の最近の進歩は、レコメンダシステムでその可能性を活用することに関心をひいた。
LLMは自然言語タスク用に設計されているため、既存のレコメンデーションアプローチは、主にレコメンデーションタスクをオープンドメインの自然言語生成タスクに変換する。
しかし、このアプローチはアイテムがリッチな意味情報を持つことを必要とし、しばしば範囲外の結果を生み出し、特に低い効率と限定的な拡張性に苦しむ。
さらに、ユーザやアイテムを表すために多数のID(ID)を頼りにしている実用的なIDベースのレコメンデーション戦略は、実世界のレコメンデーションシステムにおいて、その有効性と効率性から注目されている。
にもかかわらず、モデルIDに対するLLMの非能力は、パーソナライズされたレコメンデーションにLLMを活用しようとする場合、重大な課題となる。
本稿では,従来のレコメンダシステムとのシームレスな統合により,アイテムの表現にidのみを利用する大規模言語モデル(e4srec)のためのエレガントな効率的な拡張ソリューションを提案する。
具体的には、E4SRecはIDシーケンスを入力として取り、生成された出力が候補リスト内に収まることを保証する。
さらに、E4SRecは単一のフォワードプロセスでランキングリスト全体を生成する機能を持ち、LLM全体を凍結したままデータセット毎にトレーニングされる最小限のプラグイン可能なパラメータのみを要求する。
提案するe4srecの有効性,効率性,拡張性について,実世界の4つのデータセットを用いて総合実験を行った。
実装コードはhttps://github.com/hestiasky/e4srec/からアクセスできる。
関連論文リスト
- GOT4Rec: Graph of Thoughts for Sequential Recommendation [25.03964361177406]
GOT4Recは、思考のグラフ(GoT)のプロンプト戦略を利用するシーケンシャルレコメンデーション手法である。
我々は,ユーザ履歴シーケンスにおいて,短期的関心事,長期的関心事,他ユーザからの協力的情報という3つの重要な情報を識別し,活用する。
実世界のデータセットに対する大規模な実験は、GOT4Recの有効性を示し、既存の最先端ベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-22T13:24:01Z) - Enhancing ID-based Recommendation with Large Language Models [47.14302346325941]
我々は"LLM for ID-based Recommendation"(LLM4IDRec)と呼ばれる先駆的なアプローチを導入する。
この革新的なアプローチは、IDデータにのみ依存しながらLLMの機能を統合することで、以前のテキストデータへの依存から逸脱する。
LLM4IDRecアプローチの有効性を3つの広く利用されているデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-11-04T12:43:12Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - TokenRec: Learning to Tokenize ID for LLM-based Generative Recommendation [16.93374578679005]
TokenRecは、大規模言語モデル(LLM)ベースのRecommender Systems(RecSys)のトークン化と検索のための新しいフレームワークである。
我々の戦略であるMasked Vector-Quantized (MQ) Tokenizerは、協調フィルタリングから学んだマスキングされたユーザ/イテム表現を離散トークンに定量化する。
我々の生成的検索パラダイムは,自動回帰復号処理やビーム検索処理の不要さを解消するために,ユーザに対してKドル以上のアイテムを効率的に推奨するように設計されている。
論文 参考訳(メタデータ) (2024-06-15T00:07:44Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - RA-Rec: An Efficient ID Representation Alignment Framework for LLM-based Recommendation [9.606111709136675]
LLMに基づくレコメンデーションのための効率的なID表現フレームワークであるRA-Recを提案する。
RA-Recは最先端のメソッドを大幅に上回り、最大3.0%のHitRate@100の改善を実現している。
論文 参考訳(メタデータ) (2024-02-07T02:14:58Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - PALR: Personalization Aware LLMs for Recommendation [7.407353565043918]
PALRは、ユーザ履歴の振る舞い(クリック、購入、評価など)と大きな言語モデル(LLM)を組み合わせることで、ユーザの好むアイテムを生成することを目的としている。
我々のソリューションは、様々なシーケンシャルなレコメンデーションタスクにおいて最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2023-05-12T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。