論文の概要: How to Mitigate Information Loss in Knowledge Graphs for GraphRAG: Leveraging Triple Context Restoration and Query-Driven Feedback
- arxiv url: http://arxiv.org/abs/2501.15378v1
- Date: Sun, 26 Jan 2025 03:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:39.938301
- Title: How to Mitigate Information Loss in Knowledge Graphs for GraphRAG: Leveraging Triple Context Restoration and Query-Driven Feedback
- Title(参考訳): GraphRAGの知識グラフにおける情報損失の軽減方法:3つのコンテキスト復元とクエリ駆動フィードバックの活用
- Authors: Manzong Huang, Chenyang Bu, Yi He, Xindong Wu,
- Abstract要約: 本稿では,Triple Context RestorationとQuery-driven Feedbackフレームワークを提案する。
情報損失を軽減するために、各トリプルの基盤となるテキストコンテキストを再構築する。
Exact Matchの29.1%の改善とF1の15.5%の改善を実現している。
- 参考スコア(独自算出の注目度): 12.250007669492753
- License:
- Abstract: Knowledge Graph (KG)-augmented Large Language Models (LLMs) have recently propelled significant advances in complex reasoning tasks, thanks to their broad domain knowledge and contextual awareness. Unfortunately, current methods often assume KGs to be complete, which is impractical given the inherent limitations of KG construction and the potential loss of contextual cues when converting unstructured text into entity-relation triples. In response, this paper proposes the Triple Context Restoration and Query-driven Feedback (TCR-QF) framework, which reconstructs the textual context underlying each triple to mitigate information loss, while dynamically refining the KG structure by iteratively incorporating query-relevant missing knowledge. Experiments on five benchmark question-answering datasets substantiate the effectiveness of TCR-QF in KG and LLM integration, where itachieves a 29.1% improvement in Exact Match and a 15.5% improvement in F1 over its state-of-the-art GraphRAG competitors.
- Abstract(参考訳): 知識グラフ(KG)に拡張された大規模言語モデル(LLM)は、ドメイン知識とコンテキスト認識の広さのおかげで、最近、複雑な推論タスクにおいて大きな進歩をもたらした。
残念なことに、現在の手法ではKGが完全であると仮定することが多いが、これはKGの構造の固有の限界と、非構造化のテキストをエンティティ関係のトリプルに変換する際の文脈的手がかりの潜在的な損失を考えると実用的ではない。
そこで本稿では,情報損失を軽減するために,三重項に基づくテキストコンテキストを再構築するTCR-QF(Triple Context Restoration and Query-driven Feedback)フレームワークを提案する。
KG と LLM の統合における TCR-QF の有効性を裏付ける5つのベンチマーク質問回答データセットの実験では、Exact Match の 29.1% の改善と、最先端の GraphRAG の競合に比べて F1 の 15.5% の改善が達成されている。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Efficient Relational Context Perception for Knowledge Graph Completion [25.903926643251076]
知識グラフ(KG)は知識の構造化された表現を提供するが、しばしば不完全性の課題に悩まされる。
従来の知識グラフ埋め込みモデルは、表現力のある特徴を捉える能力に制限がある。
逐次情報をモデル化し,動的文脈の学習を可能にする三重受容アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-31T11:25:58Z) - A Contextualized BERT model for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)のためのコンテキスト化BERTモデルを提案する。
本モデルでは,エンティティ記述や負の三重項サンプリングの必要性を排除し,計算要求を低減し,性能を向上する。
FB15k-237とWN18RRでは,Hit@1が5.3%向上し,4.88%向上した。
論文 参考訳(メタデータ) (2024-12-15T02:03:16Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Federated Knowledge Graph Completion via Latent Embedding Sharing and
Tensor Factorization [51.286715478399515]
FLEST(Federated Latent Embedding Factorization)は、KGの完全化にFederated Factorizationを用いた新しい手法である。
FLESTは埋め込み行列を分解し、潜伏辞書の埋め込みを共有することでプライバシーリスクを低減している。
実証的な結果はFLESTの有効性と効率を示し、パフォーマンスとプライバシのバランスのとれたソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-17T06:03:56Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - KG-ECO: Knowledge Graph Enhanced Entity Correction for Query Rewriting [15.243664083941287]
本稿では,KG-ECO: Knowledge Graphによるクエリ書き換えのためのEntity Correctionの強化を提案する。
モデルの性能を向上させるため,我々は知識グラフ(KG)を組み込んでエンティティ構造情報を提供する。
実験結果から,本手法は2つのベースラインに対して明らかな性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-02-21T05:42:06Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。