論文の概要: KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2506.09542v1
- Date: Wed, 11 Jun 2025 09:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.802826
- Title: KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs
- Title(参考訳): KG-Infused RAG:外部知識グラフを用いたコーパスベースRAGの拡張
- Authors: Dingjun Wu, Yukun Yan, Zhenghao Liu, Zhiyuan Liu, Maosong Sun,
- Abstract要約: KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
- 参考スコア(独自算出の注目度): 66.35046942874737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) improves factual accuracy by grounding responses in external knowledge. However, existing methods typically rely on a single source, either unstructured text or structured knowledge. Moreover, they lack cognitively inspired mechanisms for activating relevant knowledge. To address these issues, we propose KG-Infused RAG, a framework that integrates KGs into RAG systems to implement spreading activation, a cognitive process that enables concept association and inference. KG-Infused RAG retrieves KG facts, expands the query accordingly, and enhances generation by combining corpus passages with structured facts, enabling interpretable, multi-source retrieval grounded in semantic structure. We further improve KG-Infused RAG via preference learning on sampled key stages in the pipeline. Experiments on five QA benchmarks show that KG-Infused RAG consistently outperforms vanilla RAG (by 3.8% to 13.8%). Additionally, when integrated into Self-RAG, KG-Infused RAG brings further performance gains, demonstrating its effectiveness and versatility as a plug-and-play enhancement module for corpus-based RAG methods.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、外部知識の応答を基礎として、事実の精度を向上させる。
しかし、既存の手法は典型的には、構造化されていないテキストか構造化された知識のいずれかの、単一のソースに依存している。
さらに、認知にインスパイアされた、関連する知識を活性化するメカニズムが欠如している。
これらの課題に対処するため、我々は、KGをRAGシステムに統合したフレームワークであるKG-Infused RAGを提案する。
KG-Infused RAGは、KGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
さらに,KG-Infused RAGをパイプラインのサンプル化キーステージの優先学習により改善する。
5つのQAベンチマークの実験では、KG-Infused RAGがバニラRAG(3.8%から13.8%)を上回っている。
さらに、Self-RAGに統合されると、KG-Infused RAGはさらなるパフォーマンス向上をもたらし、コーパスベースのRAGメソッドのためのプラグイン・アンド・プレイ拡張モジュールとしての有効性と汎用性を示す。
関連論文リスト
- Walk&Retrieve: Simple Yet Effective Zero-shot Retrieval-Augmented Generation via Knowledge Graph Walks [2.717314422130497]
大きな言語モデル(LLM)は印象的な推論能力を示してきたが、幻覚や時代遅れの知識に悩まされることが多い。
知識グラフ(KG)をベースとしたRetrieval-Augmented Generation(RAG)は、知識ベースから構造化された外部情報に応答を基盤として、これらの欠点を修復する。
しかしながら、多くのKGベースのRAGアプローチでは、(i)KGとテキスト表現の整合、(ii)検索精度と効率のバランス、(iii)動的に更新されたKGに適応する。
論文 参考訳(メタデータ) (2025-05-22T16:11:35Z) - RAG-KG-IL: A Multi-Agent Hybrid Framework for Reducing Hallucinations and Enhancing LLM Reasoning through RAG and Incremental Knowledge Graph Learning Integration [4.604003661048267]
RAG-KG-ILは、大規模言語モデルの推論能力を高めるために設計された、新しいマルチエージェントハイブリッドフレームワークである。
Retrieval-Augmented Generation (RAG) と Knowledge Graphs (KG) をインクリメンタルラーニング (IL) アプローチに統合する。
我々は、健康関連クエリを含む実世界のケーススタディを用いて、このフレームワークを評価する。
論文 参考訳(メタデータ) (2025-03-14T11:50:16Z) - Knowledge Graph-Guided Retrieval Augmented Generation [34.83235788116369]
本稿では,知識グラフを用いた検索検索生成フレームワークを提案する。
KG$2$RAGは、チャンク間の事実レベルの関係を提供し、得られた結果の多様性と一貫性を改善する。
論文 参考訳(メタデータ) (2025-02-08T02:14:31Z) - FRAG: A Flexible Modular Framework for Retrieval-Augmented Generation based on Knowledge Graphs [17.477161619378332]
両アプローチの利点を相乗化する新しいフレキシブルなモジュール型KG-RAGフレームワークFRAGを提案する。
知識グラフの代わりにクエリテキストを使用することで、FRAGは柔軟性を維持しながら検索品質を向上させる。
論文 参考訳(メタデータ) (2025-01-17T05:19:14Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - ActiveRAG: Autonomously Knowledge Assimilation and Accommodation through Retrieval-Augmented Agents [49.30553350788524]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)が外部知識を活用することを可能にする。
既存のRAGモデルは、LLMを受動的情報受信者として扱うことが多い。
人間の学習行動を模倣するマルチエージェントフレームワークであるActiveRAGを紹介する。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。