論文の概要: Enhancing Large Language Models with Reliable Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2506.13178v1
- Date: Mon, 16 Jun 2025 07:43:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.695007
- Title: Enhancing Large Language Models with Reliable Knowledge Graphs
- Title(参考訳): 信頼性の高い知識グラフによる大規模言語モデルの強化
- Authors: Qinggang Zhang,
- Abstract要約: 知識グラフは、検証された知識で大規模言語モデルを構築するための有望なソリューションを提供する。
それらのポテンシャルは、固有のノイズ、不完全性、およびそれらの剛性構造とLLMの柔軟な推論を統合する複雑さによって制約されている。
この論文は、信頼性の高いKGを精製し活用することによってLCMを強化する凝集フレームワークを通じて、これらの制限に対処する。
- 参考スコア(独自算出の注目度): 0.6345523830122166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in text generation and understanding, yet their reliance on implicit, unstructured knowledge often leads to factual inaccuracies and limited interpretability. Knowledge Graphs (KGs), with their structured, relational representations, offer a promising solution to ground LLMs in verified knowledge. However, their potential remains constrained by inherent noise, incompleteness, and the complexity of integrating their rigid structure with the flexible reasoning of LLMs. This thesis presents a systematic framework to address these limitations, advancing the reliability of KGs and their synergistic integration with LLMs through five interconnected contributions. This thesis addresses these challenges through a cohesive framework that enhances LLMs by refining and leveraging reliable KGs. First, we introduce contrastive error detection, a structure-based method to identify incorrect facts in KGs. This approach is extended by an attribute-aware framework that unifies structural and semantic signals for error correction. Next, we propose an inductive completion model that further refines KGs by completing the missing relationships in evolving KGs. Building on these refined KGs, KnowGPT integrates structured graph reasoning into LLMs through dynamic prompting, improving factual grounding. These contributions form a systematic pipeline (from error detection to LLM integration), demonstrating that reliable KGs significantly enhance the robustness, interpretability, and adaptability of LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト生成と理解において顕著な能力を示してきたが、暗黙的かつ非構造化的な知識に依存しているため、事実的不正確さと限定的な解釈可能性に繋がることが多い。
知識グラフ(KG)は、構造化された関係表現を持ち、検証された知識でLLMを基盤とする有望なソリューションを提供する。
しかしながら、それらのポテンシャルは、固有のノイズ、不完全性、およびそれらの剛性構造とLLMの柔軟な推論を統合する複雑さによって制約されている。
この論文は、これらの制限に対処する体系的な枠組みを示し、KGsの信頼性を向上し、5つの相互接続されたコントリビューションを通じてLLMsとの相乗的統合を促進する。
この論文は、信頼性の高いKGを精製し活用することによってLCMを強化する凝集フレームワークを通じて、これらの課題に対処する。
まず,KGにおける誤った事実を識別する構造的手法であるコントラッシブ・エラー検出を導入する。
このアプローチは、エラー訂正のための構造的および意味的な信号を統一する属性認識フレームワークによって拡張される。
次に、KGsの進化において欠落した関係を完了させることにより、KGsをさらに洗練する帰納的完備化モデルを提案する。
これらの洗練されたKGに基づいて、KnowGPTは構造化グラフ推論を動的プロンプトによりLLMに統合し、現実のグラウンドを改善する。
これらの寄与は、(エラー検出からLLM統合まで)系統的なパイプラインを形成し、信頼性の高いKGがLLMの堅牢性、解釈可能性、適応性を著しく向上することを示した。
関連論文リスト
- ClaimPKG: Enhancing Claim Verification via Pseudo-Subgraph Generation with Lightweight Specialized LLM [3.864321514889099]
ClaimPKGは、LLM推論と知識グラフ(KG)からの構造化知識をシームレスに統合するエンドツーエンドフレームワークである。
ClaimPKGは最先端のパフォーマンスを達成し、複数のカテゴリで9%-12%の精度で高いベースラインを達成している。
論文 参考訳(メタデータ) (2025-05-28T16:34:14Z) - Thinking with Knowledge Graphs: Enhancing LLM Reasoning Through Structured Data [0.9284740716447338]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
近年の研究では、知識グラフ(KG)を活用してLLM性能を向上させるという有望な成果が示されている。
我々は、KG構造と意味論をLLM表現に密に統合する様々な手法を開発した。
論文 参考訳(メタデータ) (2024-12-14T02:51:47Z) - Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [92.71304585906624]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Combining Knowledge Graphs and Large Language Models [4.991122366385628]
大規模言語モデル(LLM)は、言語理解と生成において驚くべき結果を示す。
幻覚やドメイン固有の知識の欠如など、いくつかの欠点がある。
これらの問題は知識グラフ(KG)を組み込むことで効果的に緩和することができる。
本研究は、KGを用いたLLM、LLMベースのKG、LLM-KGハイブリッドアプローチに関する28の論文の概要をまとめた。
論文 参考訳(メタデータ) (2024-07-09T05:42:53Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
大規模言語モデル(LLM)の処理と知識グラフ(KG)の解釈について検討する。
リテラルレベルでは、様々な入力形式に対するLLMの好みを明らかにする。
注意分布レベルでは、これらの嗜好を駆動するメカニズムについて論じる。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。