論文の概要: Improving Factuality in LLMs via Inference-Time Knowledge Graph Construction
- arxiv url: http://arxiv.org/abs/2509.03540v1
- Date: Sun, 31 Aug 2025 16:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.912299
- Title: Improving Factuality in LLMs via Inference-Time Knowledge Graph Construction
- Title(参考訳): 推論時間知識グラフ構築によるLCMのファクタリティ向上
- Authors: Shanglin Wu, Lihui Liu, Jinho D. Choi, Kai Shu,
- Abstract要約: 大規模言語モデル(LLM)は、パラメトリックメモリに制限があるため、現実的に一貫した答えを生み出すのにしばしば苦労する。
推論中に知識グラフ(KG)を動的に構築・拡張する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.381290814338413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) often struggle with producing factually consistent answers due to limitations in their parametric memory. Retrieval-Augmented Generation (RAG) methods address this issue by incorporating external knowledge from trusted sources at inference time. However, such methods typically treat knowledge as unstructured text, which limits their ability to support compositional reasoning and identify factual inconsistencies. To overcome these limitations, we propose a novel framework that dynamically constructs and expands knowledge graphs (KGs) during inference, integrating both internal knowledge extracted from LLMs and external information retrieved from external sources. Our method begins by extracting a seed KG from the question via prompting, followed by iterative expansion using the LLM's latent knowledge. The graph is then selectively refined through external retrieval, enhancing factual coverage and correcting inaccuracies. We evaluate our approach on three diverse factual QA benchmarks, demonstrating consistent improvements in factual accuracy, answer precision, and interpretability over baseline prompting and static KG-augmented methods. Our findings suggest that inference-time KG construction is a promising direction for enhancing LLM factuality in a structured, interpretable, and scalable manner.
- Abstract(参考訳): 大規模言語モデル(LLM)は、パラメトリックメモリに制限があるため、現実的に一貫した答えを生み出すのにしばしば苦労する。
Retrieval-Augmented Generation (RAG)メソッドは、信頼できるソースからの外部知識を推論時に組み込むことによってこの問題に対処する。
しかし、そのような手法は知識を非構造化テキストとして扱うのが一般的であり、それは構成的推論をサポートし、事実的矛盾を識別する能力を制限する。
これらの制約を克服するために,LLMから抽出した内部知識と外部情報源から取得した外部情報の両方を統合することにより,推論中に知識グラフ(KG)を動的に構築・拡張する新しいフレームワークを提案する。
提案手法は, 質問からのシードKGの抽出から始まり, LLMの潜伏知識を用いて反復的拡張を行う。
グラフは、外部の検索によって選択的に洗練され、事実のカバレッジを高め、不正確さを修正する。
提案手法は, 実測精度, 解答精度, ベースラインプロンプト法および静的KG拡張法に対する解釈可能性において一貫した改善を証明し, 3種類の実測QAベンチマークに対するアプローチを評価する。
本研究は, 予測時間KGの構築が, 構造化, 解釈可能, 拡張性でLLMの現実性を高める上で有望な方向であることを示唆する。
関連論文リスト
- TRAIL: Joint Inference and Refinement of Knowledge Graphs with Large Language Models [5.678291291711662]
TRAILは思考、推論、インクリメンタルラーニングのための、新しく統合されたフレームワークである。
共同推論と動的KG精製を大きな言語モデルと組み合わせる。
複数のベンチマークでの大規模な実験により、TRAILは既存のKG拡張および検索拡張LDMベースラインを3%から13%上回った。
論文 参考訳(メタデータ) (2025-08-06T14:25:05Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - GenKI: Enhancing Open-Domain Question Answering with Knowledge Integration and Controllable Generation in Large Language Models [75.25348392263676]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - Oreo: A Plug-in Context Reconstructor to Enhance Retrieval-Augmented Generation [28.568010424711563]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) の機能強化を目的としている。
生成に使用する前に検索したチャンクを洗練するために設計された,コンパクトで効率的な,プラグ可能なモジュールを導入する。
論文 参考訳(メタデータ) (2025-02-18T16:38:39Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。