論文の概要: Large Language Models Enhanced Sequential Recommendation for Long-tail User and Item
- arxiv url: http://arxiv.org/abs/2405.20646v1
- Date: Fri, 31 May 2024 07:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 15:26:33.618023
- Title: Large Language Models Enhanced Sequential Recommendation for Long-tail User and Item
- Title(参考訳): 大規模言語モデルによる長期ユーザと項目の逐次レコメンデーション
- Authors: Qidong Liu, Xian Wu, Xiangyu Zhao, Yejing Wang, Zijian Zhang, Feng Tian, Yefeng Zheng,
- Abstract要約: 大規模言語モデル(LLM)の出現は、セマンティックな観点からこれらの課題に対処するための有望な道を示す。
本研究では,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を紹介する。
提案する拡張フレームワークは,既存手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 58.04939553630209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation systems (SRS) serve the purpose of predicting users' subsequent preferences based on their past interactions and have been applied across various domains such as e-commerce and social networking platforms. However, practical SRS encounters challenges due to the fact that most users engage with only a limited number of items, while the majority of items are seldom consumed. These challenges, termed as the long-tail user and long-tail item dilemmas, often create obstacles for traditional SRS methods. Mitigating these challenges is crucial as they can significantly impact user satisfaction and business profitability. While some research endeavors have alleviated these issues, they still grapple with issues such as seesaw or noise stemming from the scarcity of interactions. The emergence of large language models (LLMs) presents a promising avenue to address these challenges from a semantic standpoint. In this study, we introduce the Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR), which leverages semantic embeddings from LLMs to enhance SRS performance without increasing computational overhead. To combat the long-tail item challenge, we propose a dual-view modeling approach that fuses semantic information from LLMs with collaborative signals from traditional SRS. To address the long-tail user challenge, we introduce a retrieval augmented self-distillation technique to refine user preference representations by incorporating richer interaction data from similar users. Through comprehensive experiments conducted on three authentic datasets using three widely used SRS models, our proposed enhancement framework demonstrates superior performance compared to existing methodologies.
- Abstract(参考訳): シーケンシャルレコメンデーションシステム(SRS)は,過去のインタラクションに基づいてユーザのその後の嗜好を予測することを目的としており,電子商取引やソーシャルネットワーキングプラットフォームなど,さまざまな分野に応用されている。
しかし,現実的なSRSは,ほとんどのユーザが限られた数のアイテムにしか関わらないのに対して,ほとんどのアイテムは滅多に消費されないため,課題に直面している。
これらの課題は、長い尾のユーザージレンマと長い尾のアイテムジレンマと呼ばれ、しばしば伝統的なSRS手法の障害を生み出す。
これらの課題の緩和は、ユーザの満足度とビジネス利益性に大きな影響を与える可能性があるため、非常に重要です。
いくつかの研究はこれらの問題を緩和しているが、それでも相互作用の不足に起因するシーソーやノイズといった問題に悩まされている。
大規模言語モデル(LLM)の出現は、セマンティックな観点からこれらの課題に対処するための有望な道を示す。
本研究ではLLM-ESR(Large Language Models Enhancement framework for Sequential Recommendation)を提案する。
本研究では,LLMからの意味情報を従来のSRSからの協調信号と融合する2視点モデリング手法を提案する。
本研究では, ユーザの嗜好表現を改良するために, 類似ユーザからのリッチなインタラクションデータを組み込むことにより, ユーザの嗜好表現を洗練するための検索拡張自己蒸留手法を提案する。
提案手法は,3つのSRSモデルを用いた3つの真正データセットを用いた総合的な実験により,既存の手法と比較して優れた性能を示す。
関連論文リスト
- LIBER: Lifelong User Behavior Modeling Based on Large Language Models [42.045535303737694]
大規模言語モデルに基づく生涯ユーザ行動モデリング(LIBER)を提案する。
LIBERはHuaweiの音楽レコメンデーションサービスにデプロイされ、ユーザーの再生回数と再生時間の3.01%と7.69%を大幅に改善した。
論文 参考訳(メタデータ) (2024-11-22T03:43:41Z) - LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - GUME: Graphs and User Modalities Enhancement for Long-Tail Multimodal Recommendation [13.1192216083304]
本稿では,長期マルチモーダルレコメンデーションのための新しいグラフとユーザモダリティエンハンスメント(GUME)を提案する。
具体的には、アイテム間のマルチモーダルな類似性を用いて、まずユーザ-テムグラフを拡張します。
次に、明示的なインタラクション機能と拡張された関心機能という2つのタイプのユーザモダリティを構築します。
論文 参考訳(メタデータ) (2024-07-17T06:29:00Z) - MELT: Mutual Enhancement of Long-Tailed User and Item for Sequential
Recommendation [8.751117923894435]
SRS(Sequential Recommender Systems)における長期的課題
長大ユーザとアイテムの相互強化(MELT)という,SRSのための新しいフレームワークを提案する。
MELTは、ユーザとアイテムの両方の観点から、長い尾の問題を共同で緩和する。
論文 参考訳(メタデータ) (2023-04-17T15:49:34Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。