論文の概要: LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2405.20646v2
- Date: Fri, 01 Nov 2024 03:12:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-04 21:01:13.427280
- Title: LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation
- Title(参考訳): LLM-ESR:長い列列推薦のための大規模言語モデルの拡張
- Authors: Qidong Liu, Xian Wu, Yejing Wang, Zijian Zhang, Feng Tian, Yefeng Zheng, Xiangyu Zhao,
- Abstract要約: 現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
- 参考スコア(独自算出の注目度): 58.04939553630209
- License:
- Abstract: Sequential recommender systems (SRS) aim to predict users' subsequent choices based on their historical interactions and have found applications in diverse fields such as e-commerce and social media. However, in real-world systems, most users interact with only a handful of items, while the majority of items are seldom consumed. These two issues, known as the long-tail user and long-tail item challenges, often pose difficulties for existing SRS. These challenges can adversely affect user experience and seller benefits, making them crucial to address. Though a few works have addressed the challenges, they still struggle with the seesaw or noisy issues due to the intrinsic scarcity of interactions. The advancements in large language models (LLMs) present a promising solution to these problems from a semantic perspective. As one of the pioneers in this field, we propose the Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR). This framework utilizes semantic embeddings derived from LLMs to enhance SRS without adding extra inference load from LLMs. To address the long-tail item challenge, we design a dual-view modeling framework that combines semantics from LLMs and collaborative signals from conventional SRS. For the long-tail user challenge, we propose a retrieval augmented self-distillation method to enhance user preference representation using more informative interactions from similar users. To verify the effectiveness and versatility of our proposed enhancement framework, we conduct extensive experiments on three real-world datasets using three popular SRS models. The results show that our method surpasses existing baselines consistently, and benefits long-tail users and items especially. The implementation code is available at https://github.com/Applied-Machine-Learning-Lab/LLM-ESR.
- Abstract(参考訳): シークエンシャル・レコメンダ・システム(SRS)は、ユーザの過去のインタラクションに基づいて、その後の選択を予測することを目的としており、電子商取引やソーシャルメディアなど様々な分野に応用されている。
しかし、現実世界のシステムでは、ほとんどのユーザーは少数のアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のSRSに困難をもたらす。
これらの課題は、ユーザエクスペリエンスや販売者のメリットに悪影響を及ぼす可能性があるため、対処が不可欠です。
この問題に対処した研究はいくつかあるが、本質的な相互作用の欠如のために、まだシーソーやノイズに悩まされている。
大規模言語モデル(LLM)の進歩は、意味論的観点からこれらの問題に対する有望な解決策を提供する。
この分野の先駆者の一人として,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
このフレームワークは、LSMから派生したセマンティック埋め込みを利用して、LSMから余分な推論負荷を加えることなくSRSを強化する。
本研究では,LLMのセマンティクスと従来のSRSの協調信号を組み合わせた2視点モデリングフレームワークを設計する。
そこで本研究では,類似ユーザからのより情報的なインタラクションを用いて,ユーザの嗜好表現を向上させるための自己蒸留法を提案する。
提案する拡張フレームワークの有効性と汎用性を検証するため、3つのSRSモデルを用いて3つの実世界のデータセットに対して広範な実験を行った。
その結果,提案手法は既存のベースラインを一貫して超越し,特にロングテールユーザやアイテムに便益をもたらすことがわかった。
実装コードはhttps://github.com/Applied-Machine-Learning-Lab/LLM-ESRで公開されている。
関連論文リスト
- Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Towards Boosting LLMs-driven Relevance Modeling with Progressive Retrieved Behavior-augmented Prompting [23.61061000692023]
本研究では,検索ログに記録されたユーザインタラクションを活用して,ユーザの暗黙の検索意図に対する洞察を得ることを提案する。
ProRBPは,探索シナリオ指向の知識を大規模言語モデルと統合するための,プログレッシブ検索行動拡張型プロンプトフレームワークである。
論文 参考訳(メタデータ) (2024-08-18T11:07:38Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation [13.1192216083304]
本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
論文 参考訳(メタデータ) (2024-07-17T06:29:00Z) - MMRel: A Relation Understanding Dataset and Benchmark in the MLLM Era [72.95901753186227]
MMRel(Multi-Modal Relation Understanding)は、Multi-Modal Large Language Models (MLLM)とのオブジェクト間関係を研究するための包括的データセットである。
MMRelには3つの特徴がある: (i) 大規模かつ高い多様性を保証する3つの異なるドメインから得られる15K以上の質問応答ペア; (ii) MLLMが幻覚によってしばしば失敗する非常に珍しい関係を持つサブセットを含む; (iii) オブジェクト間関係のために手作業で検証された高品質なラベルを提供する。
論文 参考訳(メタデータ) (2024-06-13T13:51:59Z) - MELT: Mutual Enhancement of Long-Tailed User and Item for Sequential
Recommendation [8.751117923894435]
SRS(Sequential Recommender Systems)における長期的課題
長大ユーザとアイテムの相互強化(MELT)という,SRSのための新しいフレームワークを提案する。
MELTは、ユーザとアイテムの両方の観点から、長い尾の問題を共同で緩和する。
論文 参考訳(メタデータ) (2023-04-17T15:49:34Z) - Multimodal Recommender Systems: A Survey [50.23505070348051]
マルチモーダル・レコメンダ・システム(MRS)は近年,学界と産業の両方から注目を集めている。
本稿では,主に技術的観点から,MSSモデルに関する総合的な調査を行う。
実装コードなど、調査された論文の詳細にアクセスするために、リポジトリをオープンソース化します。
論文 参考訳(メタデータ) (2023-02-08T05:12:54Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。