論文の概要: Evaluating Knowledge Graph Based Retrieval Augmented Generation Methods under Knowledge Incompleteness
- arxiv url: http://arxiv.org/abs/2504.05163v1
- Date: Mon, 07 Apr 2025 15:08:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:11:49.133033
- Title: Evaluating Knowledge Graph Based Retrieval Augmented Generation Methods under Knowledge Incompleteness
- Title(参考訳): 知識不完全性を考慮した知識グラフに基づく検索検索手法の評価
- Authors: Dongzhuoran Zhou, Yuqicheng Zhu, Yuan He, Jiaoyan Chen, Evgeny Kharlamov, Steffen Staab,
- Abstract要約: KG-RAG(Knowledge Graph based Retrieval-Augmented Generation)は、質問回答(QA)のようなタスクにおける大規模言語モデル(LLM)推論を強化する手法である。
既存のベンチマークでは、KG-RAG性能に対するKGの不完全性の影響を適切に捉えていない。
我々は、KG-RAG法がKGの不完全性に敏感であることを示し、現実的な設定においてより堅牢なアプローチの必要性を強調した。
- 参考スコア(独自算出の注目度): 25.74411097212245
- License:
- Abstract: Knowledge Graph based Retrieval-Augmented Generation (KG-RAG) is a technique that enhances Large Language Model (LLM) inference in tasks like Question Answering (QA) by retrieving relevant information from knowledge graphs (KGs). However, real-world KGs are often incomplete, meaning that essential information for answering questions may be missing. Existing benchmarks do not adequately capture the impact of KG incompleteness on KG-RAG performance. In this paper, we systematically evaluate KG-RAG methods under incomplete KGs by removing triples using different methods and analyzing the resulting effects. We demonstrate that KG-RAG methods are sensitive to KG incompleteness, highlighting the need for more robust approaches in realistic settings.
- Abstract(参考訳): Knowledge Graph based Retrieval-Augmented Generation (KG-RAG)は、知識グラフ(KG)から関連する情報を取得することで、質問回答(QA)のようなタスクにおいて、LLM(Large Language Model)推論を強化する技術である。
しかし、現実世界のKGは不完全であることが多いため、質問に答える重要な情報が欠落している可能性がある。
既存のベンチマークでは、KG-RAG性能に対するKGの不完全性の影響を適切に捉えていない。
本稿では,KG-RAG法を非完全KG法で系統的に評価し,異なる手法を用いてトリプルを除去し,その結果を解析する。
我々は、KG-RAG法がKGの不完全性に敏感であることを示し、現実的な設定においてより堅牢なアプローチの必要性を強調した。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Reasoning over Multi-view Knowledge Graphs [59.99051368907095]
ROMAは、マルチビューKG上で論理クエリに応答する新しいフレームワークである。
大規模(数百万の事実など)のKGや粒度の細かいビューまでスケールする。
トレーニング中に観測されていない構造やKGビューのクエリを一般化する。
論文 参考訳(メタデータ) (2022-09-27T21:32:20Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge [10.689559910656474]
テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答のような下流アプリケーションタスクではパフォーマンスが低下する。
最も成功したKG精製技術は、推論規則と推論監督の過剰な利用である。
本稿では,2つの手法を反復的に組み合わせたIterefinEというKG精製フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T14:05:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。