論文の概要: SemSR: Semantics aware robust Session-based Recommendations
- arxiv url: http://arxiv.org/abs/2508.20587v1
- Date: Thu, 28 Aug 2025 09:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.283617
- Title: SemSR: Semantics aware robust Session-based Recommendations
- Title(参考訳): SemSR: 堅牢なセッションベースのレコメンデーションを意識したセマンティクス
- Authors: Jyoti Narwariya, Priyanka Gupta, Muskan Gupta, Jyotsana Khatri, Lovekesh Vig,
- Abstract要約: セッションベースのレコメンデーション(SR)モデルは、現在のセッション中の行動に基づいて、匿名ユーザに対してアイテムを推薦することを目的としている。
様々なSRモデルは、セッション意図の識別と解釈可能性を妨げる項目のタイトルや説明からの意味情報を活用できない。
最近の研究は、セッションベースのレコメンデーションを強化するための有望なアプローチとして、Large Language Models (LLM)を調査している。
- 参考スコア(独自算出の注目度): 11.582625739065785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommendation (SR) models aim to recommend items to anonymous users based on their behavior during the current session. While various SR models in the literature utilize item sequences to predict the next item, they often fail to leverage semantic information from item titles or descriptions impeding session intent identification and interpretability. Recent research has explored Large Language Models (LLMs) as promising approaches to enhance session-based recommendations, with both prompt-based and fine-tuning based methods being widely investigated. However, prompt-based methods struggle to identify optimal prompts that elicit correct reasoning and lack task-specific feedback at test time, resulting in sub-optimal recommendations. Fine-tuning methods incorporate domain-specific knowledge but incur significant computational costs for implementation and maintenance. In this paper, we present multiple approaches to utilize LLMs for session-based recommendation: (i) in-context LLMs as recommendation agents, (ii) LLM-generated representations for semantic initialization of deep learning SR models, and (iii) integration of LLMs with data-driven SR models. Through comprehensive experiments on two real-world publicly available datasets, we demonstrate that LLM-based methods excel at coarse-level retrieval (high recall values), while traditional data-driven techniques perform well at fine-grained ranking (high Mean Reciprocal Rank values). Furthermore, the integration of LLMs with data-driven SR models significantly out performs both standalone LLM approaches and data-driven deep learning models, as well as baseline SR models, in terms of both Recall and MRR metrics.
- Abstract(参考訳): セッションベースのレコメンデーション(SR)モデルは、現在のセッション中の行動に基づいて、匿名ユーザに対してアイテムを推薦することを目的としている。
文献における様々なSRモデルは、次の項目を予測するためにアイテムシーケンスを利用するが、セッション意図の識別と解釈可能性を妨げる項目のタイトルや記述からのセマンティック情報を活用することはしばしば失敗する。
近年,大規模言語モデル (LLM) をセッションベースレコメンデーションを強化するための有望なアプローチとして検討している。
しかし、プロンプトベースの手法は、正しい推論を導き、テスト時にタスク固有のフィードバックを欠く最適なプロンプトを特定するのに苦労している。
ファインチューニング手法にはドメイン固有の知識が含まれているが、実装とメンテナンスにかなりの計算コストがかかる。
本稿では,セッションベースレコメンデーションにLLMを利用するための複数のアプローチを提案する。
i)レコメンデーションエージェントとしてのインコンテキストLLM
(II)深層学習SRモデルのセマンティック初期化のためのLLM生成表現および
3)LLMとデータ駆動SRモデルの統合。
2つの実世界の公開データセットに関する総合的な実験を通して、LLMベースの手法が粗いレベルの検索(高いリコール値)で優れているのに対し、従来のデータ駆動手法はきめ細かいランキング(高い平均逆ランク値)でうまく機能することを示した。
さらに、データ駆動SRモデルとのLLMの統合は、スタンドアローンのLLMアプローチとデータ駆動ディープラーニングモデルの両方、およびベースラインのSRモデルの両方を、リコールとMRRの両方のメトリクスで大幅に向上する。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Beyond Static LLM Policies: Imitation-Enhanced Reinforcement Learning for Recommendation [23.945049006150555]
大規模言語モデル(LLM)は、多様なデジタルプラットフォームにまたがってパーソナライズされたコンテンツを配信することによって、ユーザエンゲージメントを高める重要なツールとなっている。
LLMを主要なレコメンデーションポリシとして直接デプロイすることは、永続的なレイテンシの問題を含む、注目すべき課題を提示する。
本稿では,LLM生成軌道からの模倣学習を利用した新しいオフライン強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-15T07:28:29Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Multi-view Intent Learning and Alignment with Large Language Models for Session-based Recommendation [26.58882747016846]
セッションベースのレコメンデーション(SBR)メソッドは、しばしばユーザーの行動データに依存する。
複数の視点から意味的および行動的信号を統合したLLM強化SBRフレームワークを提案する。
第1段階では、複数のビュープロンプトを使用して、セッションセマンティックレベルで潜伏したユーザ意図を推測し、意図的位置決めモジュールによってサポートされ、幻覚を緩和する。
第2段階では、これらのセマンティック推論を行動表現と整合させ、大きなモデルと小さなモデルの両方からの洞察を効果的に融合させる。
論文 参考訳(メタデータ) (2024-02-21T14:38:02Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。