論文の概要: LLMSeR: Enhancing Sequential Recommendation via LLM-based Data Augmentation
- arxiv url: http://arxiv.org/abs/2503.12547v1
- Date: Sun, 16 Mar 2025 15:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:58:33.703964
- Title: LLMSeR: Enhancing Sequential Recommendation via LLM-based Data Augmentation
- Title(参考訳): LLMSeR: LLMベースのデータ拡張によるシーケンスレコメンデーションの強化
- Authors: Yuqi Sun, Qidong Liu, Haiping Zhu, Feng Tian,
- Abstract要約: SRS(Sequential Recommender Systems)がオンラインプラットフォームの基礎となり、ユーザの過去のインタラクションデータを活用して、次の潜在的なエンゲージメントを予測する。
現在の手法では、協調的な信号の欠如や幻覚現象の出現など、障害に遭遇している。
LLMSeRは,Large Language Models (LLMs) を用いて擬似プライオリティアイテムを生成する,革新的なフレームワークである。
- 参考スコア(独自算出の注目度): 9.190184562550384
- License:
- Abstract: Sequential Recommender Systems (SRS) have become a cornerstone of online platforms, leveraging users' historical interaction data to forecast their next potential engagement. Despite their widespread adoption, SRS often grapple with the long-tail user dilemma, resulting in less effective recommendations for individuals with limited interaction records. The advent of Large Language Models (LLMs), with their profound capability to discern semantic relationships among items, has opened new avenues for enhancing SRS through data augmentation. Nonetheless, current methodologies encounter obstacles, including the absence of collaborative signals and the prevalence of hallucination phenomena.In this work, we present LLMSeR, an innovative framework that utilizes Large Language Models (LLMs) to generate pseudo-prior items, thereby improving the efficacy of Sequential Recommender Systems (SRS). To alleviate the challenge of insufficient collaborative signals, we introduce the Semantic Interaction Augmentor (SIA), a method that integrates both semantic and collaborative information to comprehensively augment user interaction data. Moreover, to weaken the adverse effects of hallucination in SRS, we develop the Adaptive Reliability Validation (ARV), a validation technique designed to assess the reliability of the generated pseudo items. Complementing these advancements, we also devise a Dual-Channel Training strategy, ensuring seamless integration of data augmentation into the SRS training process.Extensive experiments conducted with three widely-used SRS models demonstrate the generalizability and efficacy of LLMSeR.
- Abstract(参考訳): SRS(Sequential Recommender Systems)がオンラインプラットフォームの基礎となり、ユーザの過去のインタラクションデータを活用して、次の潜在的なエンゲージメントを予測する。
広く採用されているにもかかわらず、SRSは長い尾のジレンマに悩まされることが多く、相互作用記録が限られている個人に対して、より効果的なレコメンデーションが得られない。
大規模言語モデル(LLM)の出現は、項目間の意味的関係を識別する深い能力を持つとともに、データ拡張を通じてSRSを強化するための新たな道を開いた。
いずれにせよ、協調信号の欠如や幻覚現象の出現など、現在の手法では障害に遭遇する。本稿では、LLM(Large Language Models)を利用して擬似プライマーアイテムを生成し、シーケンスレコメンダシステム(Sequential Recommender Systems, SRS)の有効性を向上させる革新的なフレームワークであるLSMSeRを提案する。
セマンティック・インタラクション・オーグメンタ (SIA) は, セマンティック・インタラクション・オーグメンタ (SIA) とセマンティック・インタラクション・オーグメンタ (SIA) の双方を統合し, ユーザインタラクションデータを包括的に拡張する手法である。
さらに,SRSにおける幻覚の悪影響を弱めるために,生成した疑似アイテムの信頼性を評価するための検証手法である適応信頼性検証(ARV)を開発した。
また,SRSトレーニングプロセスにデータ拡張のシームレスな統合を実現するためのデュアルチャネルトレーニング戦略を考案し,LLMSeRの一般化可能性と有効性を示す3つのSRSモデルを用いた実験を行った。
関連論文リスト
- EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - The Role of Fake Users in Sequential Recommender Systems [0.0]
本研究では,ランダムなインタラクション,人気アイテムや不人気アイテムのフォロー,ひとつのジャンルに着目した偽ユーザの存在が,シーケンスレコメンダシステム(SRS)の性能に与える影響を評価する。
NDCGのような従来の指標は比較的安定しているが、偽ユーザの存在はRSSメトリクスを著しく劣化させ、多くの場合、ほぼゼロの値に低下させる。
論文 参考訳(メタデータ) (2024-10-13T17:44:04Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Robust Reinforcement Learning Objectives for Sequential Recommender Systems [7.44049827436013]
我々は、報酬の形で直接ユーザーフィードバックを取り入れ、ユーザのパーソナライズを高めるレコメンデーションシステムを開発する。
RLアルゴリズムを採用することで、政治外のトレーニング、拡張可能なアクションスペース、十分な報酬信号を持つデータセットの不足など、課題が提示される。
これらの課題に対して、より効果的な解決策を提供するための拡張された方法論を導入します。
論文 参考訳(メタデータ) (2023-05-30T08:09:08Z) - Contrastive Self-supervised Sequential Recommendation with Robust
Augmentation [101.25762166231904]
Sequential Recommendation Describes a set of technique to model dynamic user behavior to order to predict future interaction in sequence user data。
データスパーシリティやノイズの多いデータなど、古くて新しい問題はまだ残っている。
逐次レコメンデーション(CoSeRec)のためのコントラスト型自己監督学習を提案する。
論文 参考訳(メタデータ) (2021-08-14T07:15:25Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。