論文の概要: Uncovering Cross-Domain Recommendation Ability of Large Language Models
- arxiv url: http://arxiv.org/abs/2503.07761v1
- Date: Mon, 10 Mar 2025 18:32:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:41:31.490341
- Title: Uncovering Cross-Domain Recommendation Ability of Large Language Models
- Title(参考訳): 大規模言語モデルのクロスドメインレコメンデーション能力の解明
- Authors: Xinyi Liu, Ruijie Wang, Dachun Sun, Dilek Hakkani-Tur, Tarek Abdelzaher,
- Abstract要約: Cross-Domain Recommendation (CDR)は、高リソースドメインからの知識を転送することで、低リソースドメインにおけるアイテム検索を強化することを目指している。
提案するLCM4CDRは,ユーザの購入履歴シーケンスをソースドメインから活用することで,コンテキスト認識型プロンプトを構築する新しいCDRパイプラインである。
- 参考スコア(独自算出の注目度): 15.424418582075647
- License:
- Abstract: Cross-Domain Recommendation (CDR) seeks to enhance item retrieval in low-resource domains by transferring knowledge from high-resource domains. While recent advancements in Large Language Models (LLMs) have demonstrated their potential in Recommender Systems (RS), their ability to effectively transfer domain knowledge for improved recommendations remains underexplored. To bridge this gap, we propose LLM4CDR, a novel CDR pipeline that constructs context-aware prompts by leveraging users' purchase history sequences from a source domain along with shared features between source and target domains. Through extensive experiments, we show that LLM4CDR achieves strong performance, particularly when using LLMs with large parameter sizes and when the source and target domains exhibit smaller domain gaps. For instance, incorporating CD and Vinyl purchase history for recommendations in Movies and TV yields a 64.28 percent MAP 1 improvement. We further investigate key factors including source domain data, domain gap, prompt design, and LLM size, which impact LLM4CDR's effectiveness in CDR tasks. Our results highlight that LLM4CDR excels when leveraging a single, closely related source domain and benefits significantly from larger LLMs. These insights pave the way for future research on LLM-driven cross-domain recommendations.
- Abstract(参考訳): Cross-Domain Recommendation (CDR)は、高リソースドメインからの知識を転送することで、低リソースドメインにおけるアイテム検索を強化することを目指している。
近年のLLM(Large Language Models)の進歩は、レコメンデーションシステム(Recommender Systems, Recommender Systems)におけるその可能性を示しているが、改善されたレコメンデーションのためにドメイン知識を効果的に転送する能力は、まだ解明されていない。
このギャップを埋めるために、ソースドメインからのユーザの購入履歴シーケンスと、ソースドメインとターゲットドメイン間の共有機能を活用することで、コンテキスト認識プロンプトを構築する新しいCDRパイプラインであるLLM4CDRを提案する。
大規模な実験により,LLM4CDRは大きなパラメータサイズを持つLLMを使用する場合や,ソースとターゲットドメインがより小さなドメインギャップを示す場合など,高い性能を示すことが示された。
例えば、映画やテレビのレコメンデーションにCDとビニルの購入履歴を取り入れると、64.28パーセントのMAP 1が改善される。
さらに、ソース・ドメイン・データ、ドメイン・ギャップ、プロンプト・デザイン、LCMサイズといった重要な要素について検討し、LCM4CDRのCDRタスクにおける有効性に影響を与える。
以上の結果から,LLM4CDRは単一の密接に関連するソースドメインを利用する場合に優れ,LLMのメリットも大きいことが示唆された。
これらの知見は、LLM駆動のクロスドメインレコメンデーションに関する将来の研究の道を開く。
関連論文リスト
- LaRA: Benchmarking Retrieval-Augmented Generation and Long-Context LLMs -- No Silver Bullet for LC or RAG Routing [70.35888047551643]
本稿では,RAGとLC LLMを厳格に比較するための新しいベンチマークであるLaRAを提案する。
LaRAは4つのQAタスクカテゴリと3種類の自然発生長文の2326のテストケースを含んでいる。
RAGとLCの最適選択は,モデルのパラメータサイズ,長文機能,コンテキスト長,タスクタイプ,取得したチャンクの特性など,複雑な相互作用に依存する。
論文 参考訳(メタデータ) (2025-02-14T08:04:22Z) - Cross-Domain Recommendation Meets Large Language Models [3.1519384727993582]
クロスドメインレコメンデーション(CDR)がコールドスタート問題に対する有望な解決策として登場した。
既存のCDRモデルは複雑なニューラルネットワーク、大規模なデータセット、重要な計算資源に依存している。
本研究では,大規模言語モデル(LLM)の推論機能を活用し,その性能をCDR領域で検証する。
論文 参考訳(メタデータ) (2024-11-29T17:25:00Z) - Way to Specialist: Closing Loop Between Specialized LLM and Evolving Domain Knowledge Graph [66.98553434041708]
Way-to-Specialist(WTS)フレームワークは、知識グラフによる検索拡張生成を相乗化する。
LLM$circlearrowright$KG"パラダイムは、特殊LLMとドメイン知識グラフの双方向化を実現する。
論文 参考訳(メタデータ) (2024-11-28T11:24:43Z) - Exploring Language Model Generalization in Low-Resource Extractive QA [57.14068405860034]
ドメインドリフト下でのLarge Language Models (LLM) を用いた抽出質問応答(EQA)について検討する。
性能ギャップを実証的に説明するための一連の実験を考案する。
論文 参考訳(メタデータ) (2024-09-27T05:06:43Z) - Heterogeneous Graph-based Framework with Disentangled Representations Learning for Multi-target Cross Domain Recommendation [7.247438542823219]
CDR(Cross-Domain Recommendation)は、レコメンデーションシステムにおけるデータ空間の問題に対する重要な解決策である。
本稿では,HGDR (Heterogeneous Graph-based Framework with Disentangled Representations Learning)を提案する。
実世界のデータセットとオンラインA/Bテストの実験により、提案モデルがドメイン間の情報を効果的に伝達できることが証明された。
論文 参考訳(メタデータ) (2024-07-01T02:27:54Z) - Exploring User Retrieval Integration towards Large Language Models for Cross-Domain Sequential Recommendation [66.72195610471624]
Cross-Domain Sequential Recommendationは、異なるドメイン間でユーザのシーケンシャルな好みをマイニングし、転送することを目的としている。
本稿では,ユーザ検索手法を探索し,CDSRの性能向上を目的とした URLLM という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T09:19:54Z) - BLADE: Enhancing Black-box Large Language Models with Small Domain-Specific Models [56.89958793648104]
大規模言語モデル(LLM)は多用途であり、多様なタスクに対処することができる。
従来のアプローチでは、ドメイン固有のデータによる継続的な事前トレーニングを行うか、一般的なLLMをサポートするために検索拡張を採用する。
BLADEと呼ばれる新しいフレームワークを提案する。このフレームワークは、小さなDomain-spEcificモデルでブラックボックスのLArge言語モデルを拡張する。
論文 参考訳(メタデータ) (2024-03-27T08:57:21Z) - One Model for All: Large Language Models are Domain-Agnostic Recommendation Systems [43.79001185418127]
本稿では,事前学習された大規模言語モデル(LLM)をドメインに依存しない推薦に利用するフレームワークを提案する。
具体的には、複数のドメインやアイテムタイトルからのユーザの振る舞いを文に混ぜて、ユーザとアイテムの表現を生成するためにLLMを使用する。
論文 参考訳(メタデータ) (2023-10-22T13:56:14Z) - Empower Large Language Model to Perform Better on Industrial
Domain-Specific Question Answering [36.31193273252256]
大規模言語モデル(LLM)は、オープンドメインタスクにおいて大きな成果を上げている。
しかし、実際の産業ドメイン固有のシナリオにおけるパフォーマンスは、特定のドメイン知識が欠如しているため平均的です。
私たちは、Microsoft製品と顧客が遭遇するIT技術的な問題を中心にした、MSQA(QA)データセットのベンチマークを提供します。
論文 参考訳(メタデータ) (2023-05-19T09:23:25Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。