論文の概要: KERAG_R: Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation
- arxiv url: http://arxiv.org/abs/2507.05863v1
- Date: Tue, 08 Jul 2025 10:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.855778
- Title: KERAG_R: Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation
- Title(参考訳): KERAG_R:リコメンデーションのための知識強化検索生成
- Authors: Zeyuan Meng, Zixuan Yi, Iadh Ounis,
- Abstract要約: 大規模言語モデル(LLM)は、文脈学習と一般化能力のために推奨システムに強い可能性を示している。
我々はKERAG_R(Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation)と呼ばれる新しいモデルを提案する。
具体的には、グラフ検索拡張生成(GraphRAG)コンポーネントを活用し、知識グラフからの付加情報をインストラクションに統合する。
提案したKERAG_Rモデルは,3つの公開データセットに対する実験により,既存の10種類の推奨手法を著しく上回る結果となった。
- 参考スコア(独自算出の注目度): 8.64897967325355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown strong potential in recommender systems due to their contextual learning and generalisation capabilities. Existing LLM-based recommendation approaches typically formulate the recommendation task using specialised prompts designed to leverage their contextual abilities, and aligning their outputs closely with human preferences to yield an improved recommendation performance. However, the use of LLMs for recommendation tasks is limited by the absence of domain-specific knowledge. This lack of relevant relational knowledge about the items to be recommended in the LLM's pre-training corpus can lead to inaccuracies or hallucinations, resulting in incorrect or misleading recommendations. Moreover, directly using information from the knowledge graph introduces redundant and noisy information, which can affect the LLM's reasoning process or exceed its input context length, thereby reducing the performance of LLM-based recommendations. To address the lack of domain-specific knowledge, we propose a novel model called Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation (KERAG_R). Specifically, we leverage a graph retrieval-augmented generation (GraphRAG) component to integrate additional information from a knowledge graph (KG) into instructions, enabling the LLM to collaboratively exploit recommendation signals from both text-based user interactions and the knowledge graph to better estimate the users' preferences in a recommendation context. In particular, we perform graph RAG by pre-training a graph attention network (GAT) to select the most relevant triple for the target users for the used LLM, thereby enhancing the LLM while reducing redundant and noisy information. Our extensive experiments on three public datasets show that our proposed KERAG_R model significantly outperforms ten existing state-of-the-art recommendation methods.
- Abstract(参考訳): 大規模言語モデル(LLM)は、文脈学習と一般化能力のために推奨システムに強い可能性を示している。
既存のLLMベースのレコメンデーションアプローチは、典型的には、コンテキスト能力を活用するように設計された特別なプロンプトを使用してレコメンデーションタスクを定式化し、そのアウトプットを人間の好みと密接に一致させて、改善されたレコメンデーションパフォーマンスを得る。
しかし、レコメンデーションタスクにおけるLLMの使用は、ドメイン固有の知識が欠如しているため制限される。
LLMの事前学習コーパスで推奨される項目に関する関連知識の欠如は、不正確または幻覚を招き、誤ったまたは誤解を招く。
さらに、知識グラフからの情報を直接利用すると、LLMの推論プロセスに影響を与えるか、あるいは入力コンテキスト長を超える可能性のある冗長でノイズの多い情報が導入され、LLMベースのレコメンデーションの性能が低下する。
ドメイン固有知識の欠如に対処するため,我々はKERAG_R(Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation)と呼ばれる新しいモデルを提案する。
具体的には、グラフ検索拡張生成(GraphRAG)コンポーネントを活用して、知識グラフ(KG)から追加情報をインストラクションに統合し、LLMがテキストベースのユーザインタラクションと知識グラフの両方からのレコメンデーション信号を協調的に活用し、レコメンデーションコンテキストにおけるユーザの好みをより正確に見積もることを可能にする。
特に、グラフアテンションネットワーク(GAT)を事前学習して、使用済みLCMのターゲットユーザに対して最も関連性の高いトリプルを選択することにより、冗長でノイズの多い情報を低減し、LLMを改善する。
3つの公開データセットに対する広範な実験により、提案したKERAG_Rモデルは、既存の10の最先端レコメンデーション手法を著しく上回っていることが示された。
関連論文リスト
- Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - Enhancing High-order Interaction Awareness in LLM-based Recommender Model [3.7623606729515133]
本稿では,LLMベースのリコメンデータ(ELMRec)について述べる。
我々は、レコメンデーションのためのグラフ構築相互作用のLLM解釈を大幅に強化するために、単語全体の埋め込みを強化する。
ELMRecは、直接およびシーケンシャルなレコメンデーションの両方において、最先端(SOTA)メソッドよりも優れています。
論文 参考訳(メタデータ) (2024-09-30T06:07:12Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。