論文の概要: ItemRAG: Item-Based Retrieval-Augmented Generation for LLM-Based Recommendation
- arxiv url: http://arxiv.org/abs/2511.15141v1
- Date: Wed, 19 Nov 2025 05:39:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.649872
- Title: ItemRAG: Item-Based Retrieval-Augmented Generation for LLM-Based Recommendation
- Title(参考訳): ItemRAG: LLMに基づくレコメンデーションのためのアイテムベース検索強化ジェネレーション
- Authors: Sunwoo Kim, Geon Lee, Kyungho Kim, Jaemin Yoo, Kijung Shin,
- Abstract要約: 大規模言語モデルを適応させるために、検索強化生成(RAG)が組み込まれている。
LLMに基づくレコメンデーションのためのアイテムベースRAG手法であるItemRAGを提案する。
ItemRAGは、Hit-Ratio-1において最大43%のゼロショットLPMベースのレコメンデーションを一貫して改善し、(2)標準およびコールドスタートアイテムレコメンデーション設定においてユーザベースのRAGベースラインを上回っていることを示す。
- 参考スコア(独自算出の注目度): 45.55656427302983
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recently, large language models (LLMs) have been widely used as recommender systems, owing to their strong reasoning capability and their effectiveness in handling cold-start items. To better adapt LLMs for recommendation, retrieval-augmented generation (RAG) has been incorporated. Most existing RAG methods are user-based, retrieving purchase patterns of users similar to the target user and providing them to the LLM. In this work, we propose ItemRAG, an item-based RAG method for LLM-based recommendation that retrieves relevant items (rather than users) from item-item co-purchase histories. ItemRAG helps LLMs capture co-purchase patterns among items, which are beneficial for recommendations. Especially, our retrieval strategy incorporates semantically similar items to better handle cold-start items and uses co-purchase frequencies to improve the relevance of the retrieved items. Through extensive experiments, we demonstrate that ItemRAG consistently (1) improves the zero-shot LLM-based recommender by up to 43% in Hit-Ratio-1 and (2) outperforms user-based RAG baselines under both standard and cold-start item recommendation settings.
- Abstract(参考訳): 近年,大規模言語モデル (LLM) が推奨システムとして広く利用されている。
LLMのレコメンデーションに適応するために、検索強化世代(RAG)が組み込まれている。
既存のRAGメソッドの多くはユーザベースであり、ターゲットユーザと同じようなユーザの購入パターンを取得し、LLMに提供します。
本研究では, LLM を用いたレコメンデーションのためのアイテムベース RAG 手法であるItemRAG を提案する。
ItemRAGは、LLMがアイテム間の共購入パターンをキャプチャするのに役立つ。
特に, 検索戦略では, 冷間開始項目をよりよく扱うために, セマンティックに類似した項目を取り入れ, 検索項目の関連性を改善するために, 共購入頻度を利用する。
広範な実験を通じて,ItemRAGは(1)Hit-Ratio-1において最大43%のゼロショットLPMベースのレコメンデーションを一貫して改善し,(2)標準およびコールドスタート項目のレコメンデーション設定においてユーザベースのRAGベースラインを上回っていることを示す。
関連論文リスト
- AgentDR Dynamic Recommendation with Implicit Item-Item Relations via LLM-based Agents [42.177723613925146]
本稿では,LLM推論をスケーラブルなレコメンデーションツールでブリッジする新しいLLMエージェントフレームワークであるAgenDRを提案する。
提案手法は,複数のレコメンデーション出力を統合するためにLLMを活用しながら,従来のモデルに上位タスクを委譲する。
我々のフレームワークは、その基盤となるツールよりも平均して2倍改善され、優れたフルレベルのパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-10-07T05:48:05Z) - DeepRec: Towards a Deep Dive Into the Item Space with Large Language Model Based Recommendation [83.21140655248624]
大型言語モデル (LLM) はレコメンダシステム (RS) に導入された。
本稿では, LLM と TRM の自律的マルチターンインタラクションを実現する新しい RS である DeepRec を提案する。
公開データセットの実験では、DeepRecは従来のものとLLMベースのベースラインの両方で大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2025-05-22T15:49:38Z) - RecCocktail: A Generalizable and Efficient Framework for LLM-Based Recommendation [89.19433104622694]
汎用的で効率的なLLMベースのレコメンデーションフレームワークRecCocktailを提案する。
このアプローチは、ドメイン汎用レコメンデーションインストラクションデータを使用して、"ベーススピリット" LoRA モジュールを微調整することから始まります。
次に,重み空間の「基本精神」と「独立性」を混合するエントロピー誘導適応結合法を提案する。
論文 参考訳(メタデータ) (2025-02-12T10:24:22Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.73461454584274]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Taxonomy-Guided Zero-Shot Recommendations with LLMs [45.81618062939684]
大規模言語モデル (LLM) はレコメンデータシステム (RecSys) において有望であることを示す。
項目情報の明瞭度と構造を改善するため,分類学辞書を用いた新しい手法を提案する。
TaxRecは従来のゼロショットアプローチに比べて推奨品質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-20T07:06:58Z) - Reindex-Then-Adapt: Improving Large Language Models for Conversational Recommendation [50.19602159938368]
大規模言語モデル(LLM)は、会話レコメンデーションシステムに革命をもたらしている。
本稿では,マルチトークンのタイトルを単一トークンに変換するReindex-Then-Adapt(RTA)フレームワークを提案する。
本フレームワークでは,3つの対話推薦データセットの精度向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T15:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。