論文の概要: Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation
- arxiv url: http://arxiv.org/abs/2402.13840v2
- Date: Mon, 14 Apr 2025 02:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-26 07:22:33.374087
- Title: Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation
- Title(参考訳): セッションベースレコメンデーションのための大規模言語モデルを用いた多視点インテントラーニングとアライメント
- Authors: Shutong Qiao, Wei Zhou, Junhao Wen, Chen Gao, Qun Luo, Peixuan Chen, Yong Li,
- Abstract要約: セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
複数の視点から意味的および行動的信号を統合したLLM強化SBRフレームワークを提案する。
第1段階では、複数のビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、意図的位置決めモジュールによってサポートされ、幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
- 参考スコア(独自算出の注目度): 26.58882747016846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommendation (SBR) methods often rely on user behavior data, which can struggle with the sparsity of session data, limiting performance. Researchers have identified that beyond behavioral signals, rich semantic information in item descriptions is crucial for capturing hidden user intent. While large language models (LLMs) offer new ways to leverage this semantic data, the challenges of session anonymity, short-sequence nature, and high LLM training costs have hindered the development of a lightweight, efficient LLM framework for SBR. To address the above challenges, we propose an LLM-enhanced SBR framework that integrates semantic and behavioral signals from multiple views. This two-stage framework leverages the strengths of both LLMs and traditional SBR models while minimizing training costs. In the first stage, we use multi-view prompts to infer latent user intentions at the session semantic level, supported by an intent localization module to alleviate LLM hallucinations. In the second stage, we align and unify these semantic inferences with behavioral representations, effectively merging insights from both large and small models. Extensive experiments on two real datasets demonstrate that the LLM4SBR framework can effectively improve model performance. We release our codes along with the baselines at https://github.com/tsinghua-fib-lab/LLM4SBR.
- Abstract(参考訳): セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
研究者は、行動信号以外にも、アイテム記述におけるリッチなセマンティック情報が、隠されたユーザの意図をキャプチャするために重要であると認識している。
大規模言語モデル(LLM)は、このセマンティックデータを活用するための新しい方法を提供しているが、セッション匿名性、短系列性、高いLLMトレーニングコストの課題は、軽量で効率的なSBRのLLMフレームワークの開発を妨げている。
上記の課題に対処するため,複数の視点からの意味的信号と行動的信号を統合するLLM強化SBRフレームワークを提案する。
この2段階のフレームワークは、トレーニングコストを最小化しながら、LLMと従来のSBRモデルの長所を活用している。
第1段階では、マルチビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、インテントのローカライゼーションモジュールによってLLM幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
2つの実際のデータセットに関する大規模な実験により、LLM4SBRフレームワークがモデル性能を効果的に改善できることが示されている。
コードとベースラインはhttps://github.com/tsinghua-fib-lab/LLM4SBRで公開しています。
関連論文リスト
- Enhancing LLM-based Recommendation through Semantic-Aligned Collaborative Knowledge [25.757451106327167]
SeLLa-RecはCollabs.とLLMsのセマンティック空間間のアライメントの実現に重点を置いている。
このアライメントは効果的な知識融合を促進し、識別ノイズの影響を緩和する。
2つの公開ベンチマークデータセットで実施された実験は、SeLLa-Recが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-14T11:15:30Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - Item Cluster-aware Prompt Learning for Session-based Recommendation [36.93334485299296]
セッションベースのレコメンデーションは、個々のセッション内のアイテムシーケンスを分析することによって、ユーザの好みをキャプチャすることを目的としている。
既存のアプローチのほとんどは、セッション内のアイテムの関係に重点を置いており、異なるセッション間でのアイテム間の接続を無視している。
このような課題に対処するために、CLIP-SBR(Cluster-aware Item Prompt Learning for Session-based Recommendation)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-07T05:20:21Z) - Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z) - Understand What LLM Needs: Dual Preference Alignment for Retrieval-Augmented Generation [64.7982176398485]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)の幻覚化問題を緩和する効果を実証している。
本稿では,RAGシステム内での多様な知識嗜好の整合を図った汎用フレームワークであるDPA-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-26T18:26:53Z) - LLM4MSR: An LLM-Enhanced Paradigm for Multi-Scenario Recommendation [45.31960122494715]
本稿では,LLM 拡張パラダイム LLM4MSR を提案する。
具体的には,まず LLM を利用してシナリオ相関やユーザ間の関心事など多段階の知識を明らかにする。
KuaiSAR-small、KuaiSAR、およびAmazonデータセットに関する我々の実験は、LLM4MSRの2つの重要な利点を検証した。
論文 参考訳(メタデータ) (2024-06-18T11:59:36Z) - Soft Prompting for Unlearning in Large Language Models [11.504012974208466]
この研究は、データ保護規制を動機とした大規模言語モデルのための機械学習の研究に焦点をあてる。
我々はtextbfUntextbflearning (SPUL) のための textbfSoft textbfPrompting フレームワークを提案する。
本研究では,提案手法の厳密な評価を行い,SPULが実用性と忘れとのトレードオフを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2024-06-17T19:11:40Z) - DELRec: Distilling Sequential Pattern to Enhance LLM-based Recommendation [3.5113201254928117]
逐次レコメンデーション(SR)タスクは、ユーザの過去のインタラクションと好みの変化を関連付けることで、レコメンデーションの精度を高める。
従来のモデルは、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに集中し、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストやセマンティックな情報を無視することが多い。
DelRecは、SRモデルから知識を抽出し、LLMがより効果的なシーケンシャルレコメンデーションのためにこれらの補足情報を容易に理解し利用できるようにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - A Practice-Friendly LLM-Enhanced Paradigm with Preference Parsing for Sequential Recommendation [15.153844486572932]
本稿では、シーケンシャルレコメンデータシステム(SRS)のための優先構文解析(P2Rec)を用いた実践的LLM拡張パラダイムを提案する。
具体的には、情報再構成段階において、事前学習したSRSモデルの助けを借りて、協調的な情報注入のための新しいユーザレベルSFTタスクを設計する。
我々のゴールは、LLMが各ユーザのインタラクションシーケンスから対応する優先度分布を再構築することを学ばせることである。
論文 参考訳(メタデータ) (2024-06-01T07:18:56Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - Adaptive In-Context Learning with Large Language Models for Bundle Generation [31.667010709144773]
本稿では、異なるユーザセッションに基づいて、パーソナライズされたバンドル生成と、その基盤となる意図推論という2つの相互関連タスクについて検討する。
大規模言語モデル(LLM)の推論能力に着想を得て,適応型インコンテキスト学習パラダイムを提案する。
提案手法の有効性を実世界の3つのデータセットで実証した。
論文 参考訳(メタデータ) (2023-12-26T08:24:24Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Large Language Models can Contrastively Refine their Generation for Better Sentence Representation Learning [57.74233319453229]
大規模言語モデル(LLM)は画期的な技術として登場し、それらの非並列テキスト生成能力は、基本的な文表現学習タスクへの関心を喚起している。
コーパスを生成するためにLLMの処理を分解するマルチレベルコントラスト文表現学習フレームワークであるMultiCSRを提案する。
実験の結果,MultiCSRはより高度なLCMをChatGPTの性能を超えつつ,ChatGPTに適用することで最先端の成果を得られることがわかった。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - SR-GCL: Session-Based Recommendation with Global Context Enhanced
Augmentation in Contrastive Learning [5.346468677221906]
セッションベースのレコメンデーションは、進行中のセッションに基づいて、ユーザの次の振る舞いを予測することを目的としている。
最近の研究は、複雑なアイテム遷移をキャプチャするための注意機構を備えたグラフニューラルネットワークを適用している。
セッションベースレコメンデーションのための新しいコントラスト学習フレームワークSR-GCLを提案する。
論文 参考訳(メタデータ) (2022-09-22T06:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。