論文の概要: Session-Based Recommendation with Validated and Enriched LLM Intents
- arxiv url: http://arxiv.org/abs/2508.00570v1
- Date: Fri, 01 Aug 2025 12:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.868573
- Title: Session-Based Recommendation with Validated and Enriched LLM Intents
- Title(参考訳): LLMインテントの検証と濃縮によるセッションベース勧告
- Authors: Gyuseok Lee, Yaokun Liu, Yifan Liu, Susik Yoon, Dong Wang, SeongKu Kang,
- Abstract要約: セッションベースのレコメンデーション(SBR)は、匿名ユーザの次の項目をタイムリーに予測することを目的としている。
最近の研究は,大規模言語モデル(LLM)を用いたセッションの基盤となるユーザ意図の推測について検討している。
SBRのための検証および拡張LLM生成インテントを利用する2段階フレームワークVELI4SBRを提案する。
- 参考スコア(独自算出の注目度): 23.765167316395583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Session-based recommendation (SBR) aims to predict the next item for an anonymous user in a timely manner. However, SBR suffers from data sparsity due to the short and anonymous nature of sessions. Recently, an emerging line of work has explored inferring the underlying user intents of a session using large language models (LLMs), with the generated intents serving as auxiliary training signals to enhance SBR models. Despite its promise, this approach faces three key challenges: validating intent quality, incorporating session-level multi-intents, and complementing inevitable LLM failure cases. In this paper, we propose VELI4SBR, a two-stage framework that leverages Validated and Enriched LLM-generated Intents for SBR. In the first stage, we generate high-quality intents using a predict-and-correct loop that validates the informativeness of LLM-generated intents with a global intent pool to constrain the LLM's output space and reduce hallucination. In the second stage, we enhance the SBR model using the generated intents through a lightweight multi-intent prediction and fusion mechanism. Furthermore, we introduce a training strategy that compensates for LLM failures by inferring intents from inter-session behavioral similarities. Extensive experiments show that VELI4SBR outperforms state-of-the-art baselines while improving explainability.
- Abstract(参考訳): セッションベースのレコメンデーション(SBR)は、匿名ユーザの次の項目をタイムリーに予測することを目的としている。
しかし、SBRはセッションの短さと匿名性のためにデータの疎結合に悩まされている。
近年,大規模言語モデル (LLM) を用いてセッションの基盤となるユーザ意図を推定し,SBRモデルを強化するための補助的学習信号として生成された意図を考察している。
このアプローチは、その約束にもかかわらず、インテント品質の検証、セッションレベルのマルチインテントの導入、必然的なLLM障害ケースの補完という、3つの大きな課題に直面します。
本稿では, VELI4SBRを提案する。VELI4SBRは, SBRのための検証および拡張LLM生成インテントを利用する2段階フレームワークである。
第1段階では,LLMの出力空間を制約し,幻覚を低減するため,大域的なインテントプールによるLLM生成インテントの情報性を検証する予測・修正ループを用いて高品質なインテントを生成する。
第2段階では、軽量なマルチインテント予測と融合機構により、生成されたインテントを用いてSBRモデルを強化する。
さらに,セッション間行動類似性から意図を推測することで,LCM障害を補う訓練戦略を導入する。
VELI4SBRは、説明性を改善しつつ、最先端のベースラインを上回っている。
関連論文リスト
- Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation [26.58882747016846]
セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
複数の視点から意味的および行動的信号を統合したLLM強化SBRフレームワークを提案する。
第1段階では、複数のビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、意図的位置決めモジュールによってサポートされ、幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
論文 参考訳(メタデータ) (2024-02-21T14:38:02Z) - Adaptive In-Context Learning with Large Language Models for Bundle Generation [31.667010709144773]
本稿では、異なるユーザセッションに基づいて、パーソナライズされたバンドル生成と、その基盤となる意図推論という2つの相互関連タスクについて検討する。
大規模言語モデル(LLM)の推論能力に着想を得て,適応型インコンテキスト学習パラダイムを提案する。
提案手法の有効性を実世界の3つのデータセットで実証した。
論文 参考訳(メタデータ) (2023-12-26T08:24:24Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。