論文の概要: G-Refer: Graph Retrieval-Augmented Large Language Model for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2502.12586v1
- Date: Tue, 18 Feb 2025 06:42:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 20:12:08.835189
- Title: G-Refer: Graph Retrieval-Augmented Large Language Model for Explainable Recommendation
- Title(参考訳): G-Refer:説明可能なレコメンデーションのためのグラフ検索拡張大言語モデル
- Authors: Yuhan Li, Xinni Zhang, Linhao Luo, Heng Chang, Yuxiang Ren, Irwin King, Jia Li,
- Abstract要約: 本稿では,グラフ検索拡張大言語モデル (LLM) を用いた提案手法を提案する。
G-Referは、説明可能性と安定性の両方において既存の手法と比較して優れた性能を達成する。
- 参考スコア(独自算出の注目度): 48.23263809469786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable recommendation has demonstrated significant advantages in informing users about the logic behind recommendations, thereby increasing system transparency, effectiveness, and trustworthiness. To provide personalized and interpretable explanations, existing works often combine the generation capabilities of large language models (LLMs) with collaborative filtering (CF) information. CF information extracted from the user-item interaction graph captures the user behaviors and preferences, which is crucial for providing informative explanations. However, due to the complexity of graph structure, effectively extracting the CF information from graphs still remains a challenge. Moreover, existing methods often struggle with the integration of extracted CF information with LLMs due to its implicit representation and the modality gap between graph structures and natural language explanations. To address these challenges, we propose G-Refer, a framework using graph retrieval-augmented large language models (LLMs) for explainable recommendation. Specifically, we first employ a hybrid graph retrieval mechanism to retrieve explicit CF signals from both structural and semantic perspectives. The retrieved CF information is explicitly formulated as human-understandable text by the proposed graph translation and accounts for the explanations generated by LLMs. To bridge the modality gap, we introduce knowledge pruning and retrieval-augmented fine-tuning to enhance the ability of LLMs to process and utilize the retrieved CF information to generate explanations. Extensive experiments show that G-Refer achieves superior performance compared with existing methods in both explainability and stability. Codes and data are available at https://github.com/Yuhan1i/G-Refer.
- Abstract(参考訳): 説明可能なレコメンデーションは,レコメンデーションの背後にあるロジックをユーザに通知することで,システムの透明性,有効性,信頼性を向上する上で,大きなメリットを示している。
パーソナライズされた解釈可能な説明を提供するため、既存の作業は大きな言語モデル(LLM)の生成能力と協調フィルタリング(CF)情報を組み合わせることが多い。
ユーザ-itemインタラクショングラフから抽出されたCF情報は、ユーザの振る舞いと好みをキャプチャする。
しかし、グラフ構造の複雑さのため、グラフからCF情報を効果的に抽出することは依然として困難である。
さらに、既存の手法では、その暗黙的な表現と、グラフ構造と自然言語の説明とのモダリティのギャップにより、抽出されたCF情報をLLMと統合するのに苦労することが多い。
これらの課題に対処するために,グラフ検索拡張大言語モデル(LLM)を用いたフレームワークであるG-Referを提案する。
具体的には,構造的,意味的両面から明示的なCF信号を取得するために,まずハイブリッドグラフ検索機構を用いる。
検索したCF情報は、提案したグラフ翻訳により、人間の理解可能なテキストとして明示的に定式化され、LCMによって生成された説明について説明される。
モダリティギャップを埋めるため,LLMの処理能力を高め,検索したCF情報を利用して説明を生成する。
実験により, G-Refer は説明可能性, 安定性の両面で既存手法と比較して優れた性能を示した。
コードとデータはhttps://github.com/Yuhan1i/G-Refer.comで公開されている。
関連論文リスト
- Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - TOBUGraph: Knowledge Graph-Based Retrieval for Enhanced LLM Performance Beyond RAG [3.8704987495086542]
TOBUGraphは、構造化されていないデータから知識グラフを構築するグラフベースの検索フレームワークである。
構造化された知識とデータ間の多様な関係を抽出し、RAGのテキストとテキストの類似性を超えた。
ToBUGraphの有効性を実証する。TOBUは、個人記憶の組織化と検索のための実世界のアプリケーションである。
論文 参考訳(メタデータ) (2024-12-06T22:05:39Z) - SocialGPT: Prompting LLMs for Social Relation Reasoning via Greedy Segment Optimization [70.11167263638562]
社会的関係推論は、友人、配偶者、同僚などの関係カテゴリを画像から識別することを目的としている。
まず、VFM(Vision Foundation Models)の知覚能力と、モジュラーフレームワーク内でのLLM(Large Language Models)の推論能力を組み合わせた、シンプルだが巧妙な名前のフレームワークを提示する。
論文 参考訳(メタデータ) (2024-10-28T18:10:26Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。