論文の概要: Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation
- arxiv url: http://arxiv.org/abs/2402.13840v2
- Date: Mon, 14 Apr 2025 02:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:46:19.910302
- Title: Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation
- Title(参考訳): セッションベースレコメンデーションのための大規模言語モデルを用いた多視点インテントラーニングとアライメント
- Authors: Shutong Qiao, Wei Zhou, Junhao Wen, Chen Gao, Qun Luo, Peixuan Chen, Yong Li,
- Abstract要約: セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
複数の視点から意味的および行動的信号を統合したLLM強化SBRフレームワークを提案する。
第1段階では、複数のビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、意図的位置決めモジュールによってサポートされ、幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
- 参考スコア(独自算出の注目度): 26.58882747016846
- License:
- Abstract: Session-based recommendation (SBR) methods often rely on user behavior data, which can struggle with the sparsity of session data, limiting performance. Researchers have identified that beyond behavioral signals, rich semantic information in item descriptions is crucial for capturing hidden user intent. While large language models (LLMs) offer new ways to leverage this semantic data, the challenges of session anonymity, short-sequence nature, and high LLM training costs have hindered the development of a lightweight, efficient LLM framework for SBR. To address the above challenges, we propose an LLM-enhanced SBR framework that integrates semantic and behavioral signals from multiple views. This two-stage framework leverages the strengths of both LLMs and traditional SBR models while minimizing training costs. In the first stage, we use multi-view prompts to infer latent user intentions at the session semantic level, supported by an intent localization module to alleviate LLM hallucinations. In the second stage, we align and unify these semantic inferences with behavioral representations, effectively merging insights from both large and small models. Extensive experiments on two real datasets demonstrate that the LLM4SBR framework can effectively improve model performance. We release our codes along with the baselines at https://github.com/tsinghua-fib-lab/LLM4SBR.
- Abstract(参考訳): セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
研究者は、行動信号以外にも、アイテム記述におけるリッチなセマンティック情報が、隠されたユーザの意図をキャプチャするために重要であると認識している。
大規模言語モデル(LLM)は、このセマンティックデータを活用するための新しい方法を提供しているが、セッション匿名性、短系列性、高いLLMトレーニングコストの課題は、軽量で効率的なSBRのLLMフレームワークの開発を妨げている。
上記の課題に対処するため,複数の視点からの意味的信号と行動的信号を統合するLLM強化SBRフレームワークを提案する。
この2段階のフレームワークは、トレーニングコストを最小化しながら、LLMと従来のSBRモデルの長所を活用している。
第1段階では、マルチビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、インテントのローカライゼーションモジュールによってLLM幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
2つの実際のデータセットに関する大規模な実験により、LLM4SBRフレームワークがモデル性能を効果的に改善できることが示されている。
コードとベースラインはhttps://github.com/tsinghua-fib-lab/LLM4SBRで公開しています。
関連論文リスト
- Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - Item Cluster-aware Prompt Learning for Session-based Recommendation [36.93334485299296]
セッションベースのレコメンデーションは、個々のセッション内のアイテムシーケンスを分析することによって、ユーザの好みをキャプチャすることを目的としている。
既存のアプローチのほとんどは、セッション内のアイテムの関係に重点を置いており、異なるセッション間でのアイテム間の接続を無視している。
このような課題に対処するために、CLIP-SBR(Cluster-aware Item Prompt Learning for Session-based Recommendation)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-07T05:20:21Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - LLM4MSR: An LLM-Enhanced Paradigm for Multi-Scenario Recommendation [45.31960122494715]
本稿では,LLM 拡張パラダイム LLM4MSR を提案する。
具体的には,まず LLM を利用してシナリオ相関やユーザ間の関心事など多段階の知識を明らかにする。
KuaiSAR-small、KuaiSAR、およびAmazonデータセットに関する我々の実験は、LLM4MSRの2つの重要な利点を検証した。
論文 参考訳(メタデータ) (2024-06-18T11:59:36Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - SR-GCL: Session-Based Recommendation with Global Context Enhanced
Augmentation in Contrastive Learning [5.346468677221906]
セッションベースのレコメンデーションは、進行中のセッションに基づいて、ユーザの次の振る舞いを予測することを目的としている。
最近の研究は、複雑なアイテム遷移をキャプチャするための注意機構を備えたグラフニューラルネットワークを適用している。
セッションベースレコメンデーションのための新しいコントラスト学習フレームワークSR-GCLを提案する。
論文 参考訳(メタデータ) (2022-09-22T06:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。