論文の概要: SemSR: Semantics aware robust Session-based Recommendations
- arxiv url: http://arxiv.org/abs/2508.20587v1
- Date: Thu, 28 Aug 2025 09:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.283617
- Title: SemSR: Semantics aware robust Session-based Recommendations
- Title(参考訳): SemSR: 堅牢なセッションベースのレコメンデーションを意識したセマンティクス
- Authors: Jyoti Narwariya, Priyanka Gupta, Muskan Gupta, Jyotsana Khatri, Lovekesh Vig,
- Abstract要約: セッションベースのレコメンデーション(SR)モデルは、現在のセッション中の行動に基づいて、匿名ユーザに対してアイテムを推薦することを目的としている。
様々なSRモデルは、セッション意図の識別と解釈可能性を妨げる項目のタイトルや説明からの意味情報を活用できない。
最近の研究は、セッションベースのレコメンデーションを強化するための有望なアプローチとして、Large Language Models (LLM)を調査している。
- 参考スコア(独自算出の注目度): 11.582625739065785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommendation (SR) models aim to recommend items to anonymous users based on their behavior during the current session. While various SR models in the literature utilize item sequences to predict the next item, they often fail to leverage semantic information from item titles or descriptions impeding session intent identification and interpretability. Recent research has explored Large Language Models (LLMs) as promising approaches to enhance session-based recommendations, with both prompt-based and fine-tuning based methods being widely investigated. However, prompt-based methods struggle to identify optimal prompts that elicit correct reasoning and lack task-specific feedback at test time, resulting in sub-optimal recommendations. Fine-tuning methods incorporate domain-specific knowledge but incur significant computational costs for implementation and maintenance. In this paper, we present multiple approaches to utilize LLMs for session-based recommendation: (i) in-context LLMs as recommendation agents, (ii) LLM-generated representations for semantic initialization of deep learning SR models, and (iii) integration of LLMs with data-driven SR models. Through comprehensive experiments on two real-world publicly available datasets, we demonstrate that LLM-based methods excel at coarse-level retrieval (high recall values), while traditional data-driven techniques perform well at fine-grained ranking (high Mean Reciprocal Rank values). Furthermore, the integration of LLMs with data-driven SR models significantly out performs both standalone LLM approaches and data-driven deep learning models, as well as baseline SR models, in terms of both Recall and MRR metrics.
- Abstract(参考訳): セッションベースのレコメンデーション(SR)モデルは、現在のセッション中の行動に基づいて、匿名ユーザに対してアイテムを推薦することを目的としている。
文献における様々なSRモデルは、次の項目を予測するためにアイテムシーケンスを利用するが、セッション意図の識別と解釈可能性を妨げる項目のタイトルや記述からのセマンティック情報を活用することはしばしば失敗する。
近年,大規模言語モデル (LLM) をセッションベースレコメンデーションを強化するための有望なアプローチとして検討している。
しかし、プロンプトベースの手法は、正しい推論を導き、テスト時にタスク固有のフィードバックを欠く最適なプロンプトを特定するのに苦労している。
ファインチューニング手法にはドメイン固有の知識が含まれているが、実装とメンテナンスにかなりの計算コストがかかる。
本稿では,セッションベースレコメンデーションにLLMを利用するための複数のアプローチを提案する。
i)レコメンデーションエージェントとしてのインコンテキストLLM
(II)深層学習SRモデルのセマンティック初期化のためのLLM生成表現および
3)LLMとデータ駆動SRモデルの統合。
2つの実世界の公開データセットに関する総合的な実験を通して、LLMベースの手法が粗いレベルの検索(高いリコール値)で優れているのに対し、従来のデータ駆動手法はきめ細かいランキング(高い平均逆ランク値)でうまく機能することを示した。
さらに、データ駆動SRモデルとのLLMの統合は、スタンドアローンのLLMアプローチとデータ駆動ディープラーニングモデルの両方、およびベースラインのSRモデルの両方を、リコールとMRRの両方のメトリクスで大幅に向上する。
関連論文リスト
- DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - DELRec: Distilling Sequential Pattern to Enhance LLMs-based Sequential Recommendation [7.914816884185941]
逐次リコメンデーション(SR)タスクは,ユーザの行動シーケンスを学習し,過去のインタラクションと好みの変化を関連付けることによって,ユーザの次のインタラクションを予測することを目的としている。
従来のSRモデルは、外部ソースからアイテムタイトルに埋め込まれたより広いコンテキストや意味情報を無視して、トレーニングデータ内のシーケンシャルなパターンをキャプチャすることだけに重点を置いていることが多い。
大規模言語モデル(LLM)は、その高度な理解能力と強力な一般化能力により、最近SRタスクにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:47:09Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。