論文の概要: Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation
- arxiv url: http://arxiv.org/abs/2501.02226v1
- Date: Sat, 04 Jan 2025 08:16:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:05:19.660763
- Title: Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation
- Title(参考訳): LLMに基づくリコメンデーションのための知識グラフ検索拡張生成
- Authors: Shijie Wang, Wenqi Fan, Yue Feng, Xinyu Ma, Shuaiqiang Wang, Dawei Yin,
- Abstract要約: 大規模言語モデル(LLM)は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
LLMは、LLMのバックボーン、特に幻覚の問題、最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
本稿では,知識グラフ(KG)から高品質かつ最新の構造情報を検索して,推薦を増強することを提案する。
- 参考スコア(独自算出の注目度): 43.505042881783446
- License:
- Abstract: Recommender systems have become increasingly vital in our daily lives, helping to alleviate the problem of information overload across various user-oriented online services. The emergence of Large Language Models (LLMs) has yielded remarkable achievements, demonstrating their potential for the development of next-generation recommender systems. Despite these advancements, LLM-based recommender systems face inherent limitations stemming from their LLM backbones, particularly issues of hallucinations and the lack of up-to-date and domain-specific knowledge. Recently, Retrieval-Augmented Generation (RAG) has garnered significant attention for addressing these limitations by leveraging external knowledge sources to enhance the understanding and generation of LLMs. However, vanilla RAG methods often introduce noise and neglect structural relationships in knowledge, limiting their effectiveness in LLM-based recommendations. To address these limitations, we propose to retrieve high-quality and up-to-date structure information from the knowledge graph (KG) to augment recommendations. Specifically, our approach develops a retrieval-augmented framework, termed K-RagRec, that facilitates the recommendation generation process by incorporating structure information from the external KG. Extensive experiments have been conducted to demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): レコメンダシステムは、日々の生活においてますます重要になってきており、様々なユーザー指向のオンラインサービスにおける情報過負荷の問題を軽減するのに役立っている。
LLM(Large Language Models)の出現は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
これらの進歩にもかかわらず、LLMベースのレコメンデーターシステムは、LLMのバックボーン、特に幻覚の問題と最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
近年,LLMの理解と生成を促進するために外部知識源を活用することにより,これらの制約に対処する上で,RAG (Retrieval-Augmented Generation) が注目されている。
しかしながら、バニラRAG法は、しばしば知識におけるノイズや構造的関係を無視し、LLMに基づくレコメンデーションの有効性を制限する。
これらの制約に対処するため,知識グラフ(KG)から高品質で最新の構造情報を検索し,推薦を強化することを提案する。
具体的には、K-RagRecと呼ばれる検索拡張フレームワークを開発し、外部KGの構造情報を組み込むことで、推薦生成プロセスを容易にする。
提案手法の有効性を実証するために, 大規模な実験を行った。
関連論文リスト
- Generative Large Recommendation Models: Emerging Trends in LLMs for Recommendation [85.52251362906418]
このチュートリアルでは、大規模言語モデル(LLM)を統合するための2つの主要なアプローチを探求する。
これは、最近の進歩、課題、潜在的研究の方向性を含む、生成的な大規模なレコメンデーションモデルの包括的な概要を提供する。
主なトピックは、データ品質、スケーリング法則、ユーザの行動マイニング、トレーニングと推論の効率性である。
論文 参考訳(メタデータ) (2025-02-19T14:48:25Z) - Bridging the User-side Knowledge Gap in Knowledge-aware Recommendations with Large Language Models [15.41378841915072]
大規模言語モデル(LLM)は、人間の行動理解と広範囲な現実世界の知識を活用することによってギャップを埋める可能性を提供する。
本稿では,LLMに基づくユーザ側知識推論手法と,慎重に設計した推薦フレームワークを提案する。
提案手法は,特に疎結合なユーザに対して,競合するベースラインと比較して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-18T06:43:56Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - RLRF4Rec: Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Reranking [33.54698201942643]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
本稿では,Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Re rankを組み込んだ新しいフレームワークであるRLRF4Recを紹介する。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - Generative Explore-Exploit: Training-free Optimization of Generative Recommender Systems using LLM Optimizers [29.739736497044664]
生成レコメンデーションを最適化するためのトレーニング不要なアプローチを提案する。
本研究では,高いエンゲージメントを持つ生成アイテムを活用できるだけでなく,隠された集団の嗜好を積極的に探索し,発見できるジェネレーティブな探索・探索手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T20:41:59Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。