論文の概要: LLM4SBR: A Lightweight and Effective Framework for Integrating Large
Language Models in Session-based Recommendation
- arxiv url: http://arxiv.org/abs/2402.13840v1
- Date: Wed, 21 Feb 2024 14:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:21:48.600266
- Title: LLM4SBR: A Lightweight and Effective Framework for Integrating Large
Language Models in Session-based Recommendation
- Title(参考訳): LLM4SBR:セッションベース勧告における大規模言語モデル統合のための軽量で効果的なフレームワーク
- Authors: Shutong Qiao, Chen Gao, Junhao Wen, Wei Zhou, Qun Luo, Peixuan Chen
and Yong Li
- Abstract要約: 従来のセッションベースレコメンデーション(SBR)は、匿名ユーザからのセッション行動シーケンスを使用してレコメンデーションを行う。
LLM Integration Framework for SBR (LLM4SBR) を軽量・プラグアンドプレイフレームワークとして提案する。
実世界の2つのデータセットについて実験を行い, LLM4SBRが従来のSBRモデルの性能を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 27.922143384779563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional session-based recommendation (SBR) utilizes session behavior
sequences from anonymous users for recommendation. Although this strategy is
highly efficient, it sacrifices the inherent semantic information of the items,
making it difficult for the model to understand the true intent of the session
and resulting in a lack of interpretability in the recommended results.
Recently, large language models (LLMs) have flourished across various domains,
offering a glimpse of hope in addressing the aforementioned challenges.
Inspired by the impact of LLMs, research exploring the integration of LLMs with
the Recommender system (RS) has surged like mushrooms after rain. However,
constrained by high time and space costs, as well as the brief and anonymous
nature of session data, the first LLM recommendation framework suitable for
industrial deployment has yet to emerge in the field of SBR. To address the
aforementioned challenges, we have proposed the LLM Integration Framework for
SBR (LLM4SBR). Serving as a lightweight and plug-and-play framework, LLM4SBR
adopts a two-step strategy. Firstly, we transform session data into a bimodal
form of text and behavior. In the first step, leveraging the inferential
capabilities of LLMs, we conduct inference on session text data from different
perspectives and design the component for auxiliary enhancement. In the second
step, the SBR model is trained on behavior data, aligning and averaging two
modal session representations from different perspectives. Finally, we fuse
session representations from different perspectives and modalities as the
ultimate session representation for recommendation. We conducted experiments on
two real-world datasets, and the results demonstrate that LLM4SBR significantly
improves the performance of traditional SBR models and is highly lightweight
and efficient, making it suitable for industrial deployment.
- Abstract(参考訳): 従来のセッションベースレコメンデーション(SBR)は、匿名ユーザからのセッション行動シーケンスを使用してレコメンデーションを行う。
この戦略は非常に効率的であるが、アイテムの固有の意味情報を犠牲にして、モデルがセッションの真の意図を理解するのを難しくし、推奨される結果に解釈可能性の欠如をもたらす。
近年,大規模言語モデル (LLM) は様々な領域で発展し,上記の課題に対処するための希望を垣間見せている。
LLMの影響に触発されて、LLMとRecommender System(RS)の統合を探求する研究は、雨後のキノコのように急増した。
しかし、高い時間と空間コスト、セッションデータの簡潔で匿名性によって制約されているため、産業展開に適した最初のllm推奨フレームワークはまだsbrの分野には現れていない。
上記の課題に対処するため、我々はLLM Integration Framework for SBR (LLM4SBR)を提案した。
LLM4SBRは軽量でプラグアンドプレイのフレームワークであり、2段階の戦略を採用している。
まず、セッションデータをテキストと振る舞いのバイモーダルな形式に変換する。
最初のステップでは、LLMの推論機能を活用し、異なる視点からセッションテキストデータを推論し、補助的な拡張のためのコンポーネントを設計する。
第2のステップでは、sbrモデルは行動データに基づいてトレーニングされ、異なる視点から2つのモーダルセッション表現を調整および平均化する。
最後に、異なる視点とモダリティからセッション表現を、推奨のための究極のセッション表現として融合する。
その結果, LLM4SBRは従来のSBRモデルの性能を大幅に改善し, 軽量で効率的であり, 産業展開に適していることがわかった。
関連論文リスト
- Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation [23.182787000804407]
セッションベースレコメンデーション(SBR)を強化するための有望なアプローチとして,大規模言語モデル(LLM)が登場している。
本稿では,SBRのための反射強化大言語モデル(Re2LLM)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:12:18Z) - Can large language models explore in-context? [87.49311128190143]
単純なマルチアームバンディット環境において,エージェントとして大規模言語モデルをデプロイする。
モデルが実質的な介入なしには、探索にしっかりと関わっていないことが分かっています。
論文 参考訳(メタデータ) (2024-03-22T17:50:43Z) - Mitigating Catastrophic Forgetting in Large Language Models with
Self-Synthesized Rehearsal [51.36134981232229]
大規模言語モデル(LLM)は、連続学習中に破滅的な忘れ込みに悩まされる。
自己合成リハーサル(Self-Synthesized Rehearsal, SSR)と呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-02T16:11:23Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Large Language Models for Intent-Driven Session Recommendations [34.64421003286209]
大規模言語モデル(LLM)の高度な推論機能を活用した新しいISR手法を提案する。
本稿では,プロンプトを反復的に自己表現し,調整するイノベーティブなプロンプト最適化機構を提案する。
この新たなパラダイムは、LLMに対して、さまざまなユーザ意図をセマンティックレベルで識別する権限を与え、より正確で解釈可能なセッションレコメンデーションをもたらす。
論文 参考訳(メタデータ) (2023-12-07T02:25:14Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - SR-GCL: Session-Based Recommendation with Global Context Enhanced
Augmentation in Contrastive Learning [5.346468677221906]
セッションベースのレコメンデーションは、進行中のセッションに基づいて、ユーザの次の振る舞いを予測することを目的としている。
最近の研究は、複雑なアイテム遷移をキャプチャするための注意機構を備えたグラフニューラルネットワークを適用している。
セッションベースレコメンデーションのための新しいコントラスト学習フレームワークSR-GCLを提案する。
論文 参考訳(メタデータ) (2022-09-22T06:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。