論文の概要: One Model for All: Large Language Models are Domain-Agnostic Recommendation Systems
- arxiv url: http://arxiv.org/abs/2310.14304v2
- Date: Wed, 19 Feb 2025 02:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 21:02:22.913014
- Title: One Model for All: Large Language Models are Domain-Agnostic Recommendation Systems
- Title(参考訳): 一つのモデル:大言語モデルはドメインに依存しない推薦システムである
- Authors: Zuoli Tang, Zhaoxin Huan, Zihao Li, Xiaolu Zhang, Jun Hu, Chilin Fu, Jun Zhou, Lixin Zou, Chenliang Li,
- Abstract要約: 本稿では,事前学習された大規模言語モデル(LLM)をドメインに依存しない推薦に利用するフレームワークを提案する。
具体的には、複数のドメインやアイテムタイトルからのユーザの振る舞いを文に混ぜて、ユーザとアイテムの表現を生成するためにLLMを使用する。
- 参考スコア(独自算出の注目度): 43.79001185418127
- License:
- Abstract: Sequential recommendation systems aim to predict users' next likely interaction based on their history. However, these systems face data sparsity and cold-start problems. Utilizing data from other domains, known as multi-domain methods, is useful for alleviating these problems. However, traditional multi-domain methods rely on meaningless ID-based item representation, which makes it difficult to align items with similar meanings from different domains, yielding sup-optimal knowledge transfer. This paper introduces LLM-Rec, a framework that utilizes pre-trained large language models (LLMs) for domain-agnostic recommendation. Specifically, we mix user's behaviors from multiple domains and concatenate item titles into a sentence, then use LLMs for generating user and item representations. By mixing behaviors across different domains, we can exploit the knowledge encoded in LLMs to bridge the semantic across over multi-domain behaviors, thus obtaining semantically rich representations and improving performance in all domains. Furthermore, we explore the underlying reasons why LLMs are effective and investigate whether LLMs can understand the semantic correlations as the recommendation model, and if advanced techniques like scaling laws in NLP also work in recommendations. We conduct extensive experiments with LLMs ranging from 40M to 6.7B to answer the above questions and to verify the effectiveness of LLM-Rec in multi-domain recommendation.
- Abstract(参考訳): シーケンシャルレコメンデーションシステムは,ユーザの履歴に基づいて,次のインタラクションを予測することを目的としている。
しかし、これらのシステムはデータ空間とコールドスタートの問題に直面している。
マルチドメインメソッドとして知られる他のドメインのデータを活用することは、これらの問題を緩和するのに有用である。
しかし、従来のマルチドメインメソッドは、意味のないIDベースのアイテム表現に依存しており、アイテムを異なるドメインの類似した意味と整合させることが難しく、超最適知識伝達をもたらす。
本稿では,LLM-Recについて紹介する。LLM-Recは,事前学習された大規模言語モデル(LLM)をドメインに依存しない推薦に利用するフレームワークである。
具体的には、複数のドメインからのユーザの振る舞いを混合し、アイテムタイトルを文に結合し、LLMを使用してユーザとアイテム表現を生成する。
異なるドメインの振る舞いを混合することにより、LLMに符号化された知識を利用して、複数のドメインの振る舞いにまたがってセマンティックをブリッジし、セマンティックにリッチな表現を得ることができ、全てのドメインのパフォーマンスを向上させることができる。
さらに, LLM が有効である理由について検討し, LLM がレコメンデーションモデルとして意味的相関を理解できるかどうか, NLP のスケーリング法則のような高度な手法がレコメンデーションで有効であるかどうかを検討する。
40Mから6.7BまでのLLMを用いて広範囲にわたる実験を行い,複数ドメインのレコメンデーションにおいてLLM-Recの有効性を検証する。
関連論文リスト
- MoLoRec: A Generalizable and Efficient Framework for LLM-Based Recommendation [48.27058675713025]
汎用的で効率的なLLMベースのレコメンデーションフレームワークMoLoRecを提案する。
提案手法は,一般勧告データを用いたドメインジェネラルモジュールをパラメータ効率で微調整することから始める。
上記のドメイン一般部分とドメイン特化部分とをパラメータの混合と統合するためのアプローチを提供する。
論文 参考訳(メタデータ) (2025-02-12T10:24:22Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。