論文の概要: LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2411.09410v3
- Date: Wed, 07 May 2025 12:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 14:59:11.706721
- Title: LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation
- Title(参考訳): シーケンスレコメンデーションのためのLLMに基づく双方向多目的学習フレームワーク
- Authors: Shutong Qiao, Chen Gao, Wei Yuan, Yong Li, Hongzhi Yin,
- Abstract要約: 本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
- 参考スコア(独自算出の注目度): 54.396000434574454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation (SR) leverages users' dynamic preferences, with recent advances incorporating multi-interest learning to model diverse user interests. However, most multi-interest SR models rely on noisy, sparse implicit feedback, limiting recommendation accuracy. Large language models (LLMs) offer robust reasoning on low-quality data but face high computational costs and latency challenges for SR integration. We propose a novel LLM-based multi-interest SR framework combining implicit behavioral and explicit semantic perspectives. It includes two modules: the Implicit Behavioral Interest Module (IBIM), which learns from user behavior using a traditional SR model, and the Explicit Semantic Interest Module (ESIM), which uses clustering and prompt-engineered LLMs to extract semantic multi-interest representations from informative samples. Semantic insights from ESIM enhance IBIM's behavioral representations via modality alignment and semantic prediction tasks. During inference, only IBIM is used, ensuring efficient, LLM-free recommendations. Experiments on four real-world datasets validate the framework's effectiveness and practicality.
- Abstract(参考訳): シークエンシャルレコメンデーション(SR)は、ユーザの動的嗜好を活用し、多様なユーザの興味をモデル化するための多目的学習を取り入れた最近の進歩である。
しかし、ほとんどの多目的SRモデルはノイズの多い暗黙のフィードバックに依存しており、推奨精度を制限している。
LLM(Large Language Model)は、低品質なデータに対する堅牢な推論を提供するが、高い計算コストとSR統合のレイテンシの問題に直面している。
暗黙的行動と明示的意味論的視点を組み合わせたLLMに基づく多目的SRフレームワークを提案する。
Implicit Behavioral Interest Module (IBIM) とExplicit Semantic Interest Module (ESIM) はクラスタリングとプロンプトエンジニアリングによるLCMを使って情報的サンプルからセマンティックな多目的表現を抽出する。
ESIMからの意味的洞察は、モダリティアライメントとセマンティック予測タスクを通じてIBIMの行動表現を強化する。
推論中は、IBIMのみを使用し、LLMのない効率的なレコメンデーションを確実にする。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
関連論文リスト
- LLM-Driven Dual-Level Multi-Interest Modeling for Recommendation [12.89199121698673]
大規模言語モデル (LLM) は、その豊富な知識と強力な推論能力により、多言語分析において大きな可能性を示す。
より効果的なレコメンデーションのためのLLM駆動型デュアルレベル多目的モデリングフレームワークを提案する。
実世界のデータセットの実験は、最先端の手法に対する我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2025-07-15T02:13:54Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation [17.18176550968383]
本稿では,SRA-CL(Semantic Retrieval Augmented Contrastive Learning)という手法を提案する。
SRA-CLは、(1)大規模言語モデル(LLM)を利用して多様なユーザの嗜好を理解し、意味的に類似したユーザを検索して、学習可能なサンプル手法で信頼性の高い正のサンプルを作成する、(2) LLMを使ってアイテムを理解し、類似したアイテムを検索する、アイテムセマンティック検索という2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-03-06T07:25:19Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
2つの重要な特徴を持つ新しいRECデータセットを導入する。第一に、オブジェクトカテゴリ、属性、関係性に関する詳細な推論を必要とする、制御可能な難易度で設計されている。
第二に、微粒な編集によって生成された否定的なテキストと画像が組み込まれ、既存のターゲットを拒否するモデルの能力を明示的にテストする。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - Towards Boosting LLMs-driven Relevance Modeling with Progressive Retrieved Behavior-augmented Prompting [23.61061000692023]
本研究では,検索ログに記録されたユーザインタラクションを活用して,ユーザの暗黙の検索意図に対する洞察を得ることを提案する。
ProRBPは,探索シナリオ指向の知識を大規模言語モデルと統合するための,プログレッシブ検索行動拡張型プロンプトフレームワークである。
論文 参考訳(メタデータ) (2024-08-18T11:07:38Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation [26.58882747016846]
セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
複数の視点から意味的および行動的信号を統合したLLM強化SBRフレームワークを提案する。
第1段階では、複数のビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、意図的位置決めモジュールによってサポートされ、幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
論文 参考訳(メタデータ) (2024-02-21T14:38:02Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Improving Multi-Interest Network with Stable Learning [13.514488368734776]
Deep Stable Multi-Interest Learning (DESMIL) という新しい多目的ネットワークを提案する。
DESMILは、収集した関心事間の微妙な依存関係の影響を、トレーニングサンプルの学習重みによって排除しようとする。
我々は、パブリックレコメンデーションデータセット、大規模産業データセット、合成データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-07-14T07:49:28Z) - Multiple Interest and Fine Granularity Network for User Modeling [3.508126539399186]
ユーザモデリングは、カスタマエクスペリエンスとビジネス収益の両方の観点から、マッチングステージとランキングステージの両方において、産業レコメンデータシステムにおいて、基本的な役割を果たす。
既存のディープラーニングベースのアプローチのほとんどは、アイテムIDとカテゴリIDを活用するが、色やメイトリアルのようなきめ細かい特徴は無視し、ユーザの興味の細かい粒度をモデル化するのを妨げる。
本稿では,ユーザの多目的・細粒度に対処する多目的・細粒度ネットワーク(MFN)を提案し,ユーザの多目的間の類似性関係と組み合わせ関係からモデルを構築した。
論文 参考訳(メタデータ) (2021-12-05T15:12:08Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。