論文の概要: Improving Sequential Recommendations with LLMs
- arxiv url: http://arxiv.org/abs/2402.01339v2
- Date: Sat, 11 Jan 2025 15:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:20:21.085764
- Title: Improving Sequential Recommendations with LLMs
- Title(参考訳): LLMによるシーケンスレコメンデーションの改善
- Authors: Artun Boz, Wouter Zorgdrager, Zoe Kotti, Jesse Harte, Panos Louridas, Dietmar Jannach, Vassilios Karakoidas, Marios Fragkoulis,
- Abstract要約: 大規模言語モデル(LLM)は、シーケンシャルなレコメンデーションアプローチの構築や改善に使用することができる。
我々は3つのデータセットについて広範囲に実験を行い、それぞれのアプローチの性能を網羅した画像を得る。
- 参考スコア(独自算出の注目度): 8.819438328085925
- License:
- Abstract: The sequential recommendation problem has attracted considerable research attention in the past few years, leading to the rise of numerous recommendation models. In this work, we explore how Large Language Models (LLMs), which are nowadays introducing disruptive effects in many AI-based applications, can be used to build or improve sequential recommendation approaches. Specifically, we design three orthogonal approaches and hybrids of those to leverage the power of LLMs in different ways. In addition, we investigate the potential of each approach by focusing on its comprising technical aspects and determining an array of alternative choices for each one. We conduct extensive experiments on three datasets and explore a large variety of configurations, including different language models and baseline recommendation models, to obtain a comprehensive picture of the performance of each approach. Among other observations, we highlight that initializing state-of-the-art sequential recommendation models such as BERT4Rec or SASRec with embeddings obtained from an LLM can lead to substantial performance gains in terms of accuracy. Furthermore, we find that fine-tuning an LLM for recommendation tasks enables it to learn not only the tasks, but also concepts of a domain to some extent. We also show that fine-tuning OpenAI GPT leads to considerably better performance than fine-tuning Google PaLM 2. Overall, our extensive experiments indicate a huge potential value of leveraging LLMs in future recommendation approaches. We publicly share the code and data of our experiments to ensure reproducibility.
- Abstract(参考訳): シーケンシャルなレコメンデーション問題は、ここ数年でかなりの研究の注目を集め、多くのレコメンデーションモデルが台頭した。
本稿では,近年,AIベースのアプリケーションに破壊的効果を導入しているLarge Language Models(LLMs)を,シーケンシャルなレコメンデーションアプローチの構築や改善に利用する方法について検討する。
具体的には,LLMのパワーを異なる方法で活用するための3つの直交アプローチとハイブリッドを設計する。
さらに,その構成する技術的側面に焦点をあて,それぞれのアプローチに代替する選択肢の配列を決定することによって,それぞれのアプローチの可能性を検討する。
3つのデータセットに関する広範な実験を行い、異なる言語モデルやベースラインレコメンデーションモデルを含む様々な構成を探索し、それぞれのアプローチの性能を総合的に把握する。
BERT4RecやSASRecのような最先端のシーケンシャルレコメンデーションモデルをLCMから得られる埋め込みで初期化すると、精度の面ではかなりの性能向上が期待できる。
さらに,レコメンデーションタスクの微調整により,タスクだけでなく,ドメインの概念もある程度学習できることがわかった。
また、微調整のOpenAI GPTは、微調整のGoogle PaLM 2.0よりもかなり優れたパフォーマンスをもたらすことを示す。
全体として、我々の広範な実験は、将来のレコメンデーションアプローチでLLMを活用する大きな可能性を示している。
再現性を確保するために、実験のコードとデータを公開しています。
関連論文リスト
- HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Finetuning Large Language Model for Personalized Ranking [12.16551080986962]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
DMPO(Direct Multi-Preference Optimization)は、リコメンデーションタスクのギャップを埋め、LLMのアライメントを強化するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-05-25T08:36:15Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecMind: Large Language Model Powered Agent For Recommendation [16.710558148184205]
RecMindは、ゼロショットパーソナライズされたレコメンデーションを慎重に計画する自律的なレコメンデーションエージェントである。
実験の結果,RecMind は既存のゼロ/フェーショット LLM ベースのレコメンデーションベースライン手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-28T04:31:04Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。