論文の概要: Towards Self-cognitive Exploration: Metacognitive Knowledge Graph Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2508.09460v1
- Date: Wed, 13 Aug 2025 03:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.743371
- Title: Towards Self-cognitive Exploration: Metacognitive Knowledge Graph Retrieval Augmented Generation
- Title(参考訳): 自己認知的探索に向けて:メタ認知的知識グラフ検索生成
- Authors: Xujie Yuan, Shimin Di, Jielong Tang, Libin Zheng, Jian Yin,
- Abstract要約: 知識グラフに基づく検索言語生成(KG-RAG)は,大規模言語モデルの推論能力を著しく向上させる。
既存のKG-RAGフレームワークはオープンループシステムとして機能し、認知障害に悩まされている。
本稿ではメタ認知的知識グラフ検索拡張生成(MetaKGRAG)を提案する。
- 参考スコア(独自算出の注目度): 11.752268960775075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graph-based Retrieval-Augmented Generation (KG-RAG) significantly enhances the reasoning capabilities of LargeLanguage Models by leveraging structured knowledge. However, existing KG-RAG frameworks typically operate as open-loop systems, suffering from cognitive blindness, an inability to recognize their exploration deficiencies. This leads to relevance drift and incomplete evidence, which existing self-refinement methods, designed for unstructured text-based RAG, cannot effectively resolve due to the path-dependent nature of graph exploration. To address this challenge, we propose Metacognitive Knowledge Graph Retrieval Augmented Generation (MetaKGRAG), a novel framework inspired by the human metacognition process, which introduces a Perceive-Evaluate-Adjust cycle to enable path-aware, closed-loop refinement. This cycle empowers the system to self-assess exploration quality, identify deficiencies in coverage or relevance, and perform trajectory-connected corrections from precise pivot points. Extensive experiments across five datasets in the medical, legal, and commonsense reasoning domains demonstrate that MetaKGRAG consistently outperforms strong KG-RAG and self-refinement baselines. Our results validate the superiority of our approach and highlight the critical need for path-aware refinement in structured knowledge retrieval.
- Abstract(参考訳): 知識グラフに基づく検索言語生成(KG-RAG)は構造化知識を活用することにより,大規模言語モデルの推論能力を著しく向上させる。
しかしながら、既存のKG-RAGフレームワークは一般にオープンループシステムとして機能し、認知障害、探索不足を認識することができない。
このことは、非構造化テキストベースRAGのために設計された既存の自己修正手法が、グラフ探索の経路依存的な性質のために効果的に解決できない、関係の漂流と不完全な証拠をもたらす。
この課題に対処するために,メタ認知的知識グラフ検索生成(MetaKGRAG)を提案する。メタ認知プロセスに触発された新しいフレームワークで,パス認識・クローズドループ改善を実現するための知覚-評価-調整サイクルを導入する。
このサイクルは、探索品質を自己評価し、カバレッジや関連性の欠陥を特定し、正確なピボットポイントから軌道接続補正を行う。
医学、法学、常識推論領域の5つのデータセットにわたる大規模な実験は、MetaKGRAGが強いKG-RAGと自己精製ベースラインを一貫して上回っていることを示している。
本研究は,本手法の優位性を検証し,構造化知識検索におけるパス認識の改良の重要性を強調した。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - OntoRAG: Enhancing Question-Answering through Automated Ontology Derivation from Unstructured Knowledge Bases [0.0]
本稿では,非構造化知識ベースから導出する自動パイプラインであるOntoRAGを紹介する。
OntoRAGは、Webスクレイピング、PDF解析、ハイブリッドチャンキング、情報抽出、知識グラフ構築、オントロジー生成など、高度な技術を統合している。
論文 参考訳(メタデータ) (2025-05-31T18:33:39Z) - RAG-KG-IL: A Multi-Agent Hybrid Framework for Reducing Hallucinations and Enhancing LLM Reasoning through RAG and Incremental Knowledge Graph Learning Integration [4.604003661048267]
RAG-KG-ILは、大規模言語モデルの推論能力を高めるために設計された、新しいマルチエージェントハイブリッドフレームワークである。
Retrieval-Augmented Generation (RAG) と Knowledge Graphs (KG) をインクリメンタルラーニング (IL) アプローチに統合する。
我々は、健康関連クエリを含む実世界のケーススタディを用いて、このフレームワークを評価する。
論文 参考訳(メタデータ) (2025-03-14T11:50:16Z) - G-OSR: A Comprehensive Benchmark for Graph Open-Set Recognition [54.45837774534411]
ノードレベルとグラフレベルの両方でグラフオープンセット認識(GOSR)手法を評価するベンチマークである textbfG-OSR を導入する。
結果は、現在のGOSR手法の一般化可能性と限界に関する重要な洞察を与える。
論文 参考訳(メタデータ) (2025-03-01T13:02:47Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Mindful-RAG: A Study of Points of Failure in Retrieval Augmented Generation [11.471919529192048]
LLM(Large Language Models)は、コヒーレントで文脈的に関係のあるテキストを生成するのに熟練した言語モデルである。
Retrieval-augmented Generation (RAG) システムは、構造化知識グラフ(KG)のような外部知識ソースを組み込むことによってこれを緩和する。
本研究は,既存のKG法に基づくRAG法における誤りパターンの解析と8つの臨界故障点の同定により,このジレンマについて検討した。
論文 参考訳(メタデータ) (2024-07-16T23:50:07Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Enhancing Multi-Hop Knowledge Graph Reasoning through Reward Shaping
Techniques [5.561202401558972]
本研究は,マルチホップ知識グラフ(KG-R)に内在する複雑さをナビゲートするための強化学習戦略,特にREINFORCEアルゴリズムの活用について検討する。
UMLS(Unified Medical Language System)ベンチマークデータセットをリッチでスパースなサブセットに分割することにより、トレーニング済みBERT埋め込みとPrompt Learning手法の有効性を検証し、報酬形成プロセスを洗練させる。
論文 参考訳(メタデータ) (2024-03-09T05:34:07Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。