論文の概要: How to Mitigate Information Loss in Knowledge Graphs for GraphRAG: Leveraging Triple Context Restoration and Query-Driven Feedback
- arxiv url: http://arxiv.org/abs/2501.15378v1
- Date: Sun, 26 Jan 2025 03:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 21:57:03.645731
- Title: How to Mitigate Information Loss in Knowledge Graphs for GraphRAG: Leveraging Triple Context Restoration and Query-Driven Feedback
- Title(参考訳): GraphRAGの知識グラフにおける情報損失の軽減方法:3つのコンテキスト復元とクエリ駆動フィードバックの活用
- Authors: Manzong Huang, Chenyang Bu, Yi He, Xindong Wu,
- Abstract要約: 本稿では,Triple Context RestorationとQuery-driven Feedbackフレームワークを提案する。
情報損失を軽減するために、各トリプルの基盤となるテキストコンテキストを再構築する。
Exact Matchの29.1%の改善とF1の15.5%の改善を実現している。
- 参考スコア(独自算出の注目度): 12.250007669492753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graph (KG)-augmented Large Language Models (LLMs) have recently propelled significant advances in complex reasoning tasks, thanks to their broad domain knowledge and contextual awareness. Unfortunately, current methods often assume KGs to be complete, which is impractical given the inherent limitations of KG construction and the potential loss of contextual cues when converting unstructured text into entity-relation triples. In response, this paper proposes the Triple Context Restoration and Query-driven Feedback (TCR-QF) framework, which reconstructs the textual context underlying each triple to mitigate information loss, while dynamically refining the KG structure by iteratively incorporating query-relevant missing knowledge. Experiments on five benchmark question-answering datasets substantiate the effectiveness of TCR-QF in KG and LLM integration, where itachieves a 29.1% improvement in Exact Match and a 15.5% improvement in F1 over its state-of-the-art GraphRAG competitors.
- Abstract(参考訳): 知識グラフ(KG)に拡張された大規模言語モデル(LLM)は、ドメイン知識とコンテキスト認識の広さのおかげで、最近、複雑な推論タスクにおいて大きな進歩をもたらした。
残念なことに、現在の手法ではKGが完全であると仮定することが多いが、これはKGの構造の固有の限界と、非構造化のテキストをエンティティ関係のトリプルに変換する際の文脈的手がかりの潜在的な損失を考えると実用的ではない。
そこで本稿では,情報損失を軽減するために,三重項に基づくテキストコンテキストを再構築するTCR-QF(Triple Context Restoration and Query-driven Feedback)フレームワークを提案する。
KG と LLM の統合における TCR-QF の有効性を裏付ける5つのベンチマーク質問回答データセットの実験では、Exact Match の 29.1% の改善と、最先端の GraphRAG の競合に比べて F1 の 15.5% の改善が達成されている。
関連論文リスト
- Question-Aware Knowledge Graph Prompting for Enhancing Large Language Models [51.47994645529258]
本稿では,問合せをGNNアグリゲーションに組み込んでKG関連性を動的に評価するQAP(QA-Aware Knowledge Graph Prompting)を提案する。
実験の結果、QAPは複数のデータセットで最先端の手法よりも優れており、その有効性を強調している。
論文 参考訳(メタデータ) (2025-03-30T17:09:11Z) - Enhancing Knowledge Graph Completion with Entity Neighborhood and Relation Context [12.539576594311127]
KGC-ERCは、両方のコンテキストを統合し、生成言語モデルの入力を強化し、それらの推論能力を向上するフレームワークである。
Wikidata5M、Wiki27K、FB15K-237-Nデータセットの実験は、KGC-ERCが予測性能とスケーラビリティにおいて最先端のベースラインより優れているか、あるいは一致していることを示している。
論文 参考訳(メタデータ) (2025-03-29T20:04:50Z) - Talking to GDELT Through Knowledge Graphs [0.6461717749486492]
本研究では,各アプローチの強みと弱みを質問応答解析で把握するために,様々なRAG(Retrieval Augmented Regeneration)アプローチについて検討する。
テキストコーパスから情報を取得するために,従来のベクトルストアRAGと,最先端の大規模言語モデル(LLM)に基づくアプローチを実装した。
論文 参考訳(メタデータ) (2025-03-10T17:48:10Z) - MuCo-KGC: Multi-Context-Aware Knowledge Graph Completion [0.0]
Multi-Context-Aware Knowledge Graph Completion (MuCo-KGC) は、グラフ内のリンクされたエンティティや関係からのコンテキスト情報を利用して、テールエンティティを予測する新しいモデルである。
MuCo-KGCは、エンティティ記述と負の三重項サンプリングの必要性を排除し、性能を高めながら計算の複雑さを著しく低減する。
FB15k-237、WN18RR、CoDEx-S、CoDEx-Mなどの標準データセットに関する実験は、MuCo-KGCが3つのデータセット上で最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2025-03-05T01:18:11Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Federated Neural Graph Databases [53.03085605769093]
プライバシを保ちながらマルチソースグラフベースのデータの推論を可能にする新しいフレームワークであるFederated Neural Graph Database (FedNGDB)を提案する。
既存の方法とは異なり、FedNGDBは複雑なグラフ構造と関係を扱うことができ、様々な下流タスクに適合する。
論文 参考訳(メタデータ) (2024-02-22T14:57:44Z) - Federated Knowledge Graph Completion via Latent Embedding Sharing and
Tensor Factorization [51.286715478399515]
FLEST(Federated Latent Embedding Factorization)は、KGの完全化にFederated Factorizationを用いた新しい手法である。
FLESTは埋め込み行列を分解し、潜伏辞書の埋め込みを共有することでプライバシーリスクを低減している。
実証的な結果はFLESTの有効性と効率を示し、パフォーマンスとプライバシのバランスのとれたソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-17T06:03:56Z) - KG-ECO: Knowledge Graph Enhanced Entity Correction for Query Rewriting [15.243664083941287]
本稿では,KG-ECO: Knowledge Graphによるクエリ書き換えのためのEntity Correctionの強化を提案する。
モデルの性能を向上させるため,我々は知識グラフ(KG)を組み込んでエンティティ構造情報を提供する。
実験結果から,本手法は2つのベースラインに対して明らかな性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-02-21T05:42:06Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。