論文の概要: Boosting Knowledge Graph-based Recommendations through Confidence-Aware Augmentation with Large Language Models
- arxiv url: http://arxiv.org/abs/2502.03715v1
- Date: Thu, 06 Feb 2025 02:06:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:33:16.429096
- Title: Boosting Knowledge Graph-based Recommendations through Confidence-Aware Augmentation with Large Language Models
- Title(参考訳): 信頼度を考慮した大規模言語モデルによる知識グラフに基づく推薦の強化
- Authors: Rui Cai, Chao Wang, Qianyi Cai, Dazhong Shen, Hui Xiong,
- Abstract要約: 大きな言語モデル(LLM)は、レコメンデーションタスクのための知識グラフの品質と関連性を改善するための有望な方法を提供する。
本稿では,KG と LLM を組み合わせた新しいフレームワークである LLM Augmentation (CKG-LLMA) を用いた Confidence-aware KG-based Recommendation Framework を提案する。
本フレームワークは,(1)高品質な情報でKGをリッチ化するためのLLMベースのサブグラフ拡張器,(2)ノイズの多い三重項をフィルタリングする信頼性に配慮したメッセージ伝搬機構,(3)ユーザ-テムインタラクションとKGデータを統合するための2視点コントラスト学習手法を含む。
- 参考スコア(独自算出の注目度): 19.28217321004791
- License:
- Abstract: Knowledge Graph-based recommendations have gained significant attention due to their ability to leverage rich semantic relationships. However, constructing and maintaining Knowledge Graphs (KGs) is resource-intensive, and the accuracy of KGs can suffer from noisy, outdated, or irrelevant triplets. Recent advancements in Large Language Models (LLMs) offer a promising way to improve the quality and relevance of KGs for recommendation tasks. Despite this, integrating LLMs into KG-based systems presents challenges, such as efficiently augmenting KGs, addressing hallucinations, and developing effective joint learning methods. In this paper, we propose the Confidence-aware KG-based Recommendation Framework with LLM Augmentation (CKG-LLMA), a novel framework that combines KGs and LLMs for recommendation task. The framework includes: (1) an LLM-based subgraph augmenter for enriching KGs with high-quality information, (2) a confidence-aware message propagation mechanism to filter noisy triplets, and (3) a dual-view contrastive learning method to integrate user-item interactions and KG data. Additionally, we employ a confidence-aware explanation generation process to guide LLMs in producing realistic explanations for recommendations. Finally, extensive experiments demonstrate the effectiveness of CKG-LLMA across multiple public datasets.
- Abstract(参考訳): 知識グラフベースのレコメンデーションは、リッチなセマンティックな関係を活用する能力によって、大きな注目を集めている。
しかし、知識グラフ(KGs)の構築と維持は資源集約的であり、KGsの精度はノイズ、時代遅れ、あるいは無関係の三つ子に悩まされる可能性がある。
大規模言語モデル(LLM)の最近の進歩は、推奨タスクにおけるKGの品質と関連性を改善するための有望な方法を提供する。
これにもかかわらず、LLMをKGベースのシステムに統合することは、KGを効率的に増強し、幻覚に対処し、効果的な共同学習方法を開発するといった課題を提示する。
本稿では,KG と LLM を組み合わせた新しいフレームワークである LLM Augmentation (CKG-LLMA) を用いた Confidence-aware KG-based Recommendation Framework を提案する。
本フレームワークは,(1)高品質な情報でKGをリッチ化するためのLLMベースのサブグラフ拡張器,(2)ノイズの多い三重項をフィルタリングする信頼性に配慮したメッセージ伝搬機構,(3)ユーザ-テムインタラクションとKGデータを統合するための2視点コントラスト学習手法を含む。
さらに,レコメンデーションのための現実的な説明を生成する上で,LCMをガイドするための信頼性を考慮した説明生成プロセスも採用している。
最後に、複数の公開データセットにまたがるCKG-LLMAの有効性について広範な実験を行った。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Self-supervised Quantized Representation for Seamlessly Integrating Knowledge Graphs with Large Language Models [17.88134311726175]
本稿では,知識グラフと大規模言語モデルとのシームレスな統合を目指して,各エンティティの量子化符号を学習し,適用するためのフレームワークを提案する。
実験の結果、SSQRは既存の教師なしの量子化手法よりも優れており、より区別可能なコードを生成することがわかった。
微調整されたLLaMA2とLLaMA3.1は、KGリンク予測と三重分類タスクよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2025-01-30T03:40:20Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Comprehending Knowledge Graphs with Large Language Models for Recommender Systems [13.270018897057293]
知識グラフを改善するために,CoLaKGと呼ばれる新しい手法を提案する。
CoLaKGは大規模な言語モデル(LLM)を使用してKGベースのレコメンデーションを改善する。
論文 参考訳(メタデータ) (2024-10-16T04:44:34Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [43.55117421485917]
本稿では,知識グラフタスクに大規模言語モデル(LLM)を活用する新しいフレームワークである知識グラフ大言語モデル(KG-LLM)を紹介する。
まず、構造化知識グラフデータを自然言語に変換し、次にこれらの自然言語プロンプトを微調整 LLM に変換する。
KG-LLMフレームワークの有効性を示すため,Flan-T5,LLaMa2,Gemmaの3つのLLMを微調整した。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - On the Sweet Spot of Contrastive Views for Knowledge-enhanced
Recommendation [49.18304766331156]
KG強化推薦のための新しいコントラスト学習フレームワークを提案する。
我々は、KGとIGのための2つの異なるコントラストビューを構築し、それらの相互情報を最大化する。
実世界の3つのデータセットに対する大規模な実験結果から,本手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-09-23T14:05:55Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。