論文の概要: Temporal Reasoning with Large Language Models Augmented by Evolving Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2509.15464v1
- Date: Thu, 18 Sep 2025 22:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.922432
- Title: Temporal Reasoning with Large Language Models Augmented by Evolving Knowledge Graphs
- Title(参考訳): 知識グラフの進化による大規模言語モデルによる時間的推論
- Authors: Junhong Lin, Song Wang, Xiaojie Guo, Julian Shun, Yada Zhu,
- Abstract要約: 大規模な言語モデルは、多くの言語理解タスクにおいて優れているが、進化する知識よりも推論に苦労する。
EvoReasonerは,グローバルな局所的なエンティティグラウンド,複数ルートの分解,時間的グラウンドのスコアリングを行う,時間的認識型マルチホップ推論アルゴリズムである。
我々は、時間的QAベンチマークと、KGを生文書から動的に更新する新しいエンドツーエンド設定に対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 27.222117881754908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at many language understanding tasks but struggle to reason over knowledge that evolves. To address this, recent work has explored augmenting LLMs with knowledge graphs (KGs) to provide structured, up-to-date information. However, many existing approaches assume a static snapshot of the KG and overlook the temporal dynamics and factual inconsistencies inherent in real-world data. To address the challenge of reasoning over temporally shifting knowledge, we propose EvoReasoner, a temporal-aware multi-hop reasoning algorithm that performs global-local entity grounding, multi-route decomposition, and temporally grounded scoring. To ensure that the underlying KG remains accurate and up-to-date, we introduce EvoKG, a noise-tolerant KG evolution module that incrementally updates the KG from unstructured documents through confidence-based contradiction resolution and temporal trend tracking. We evaluate our approach on temporal QA benchmarks and a novel end-to-end setting where the KG is dynamically updated from raw documents. Our method outperforms both prompting-based and KG-enhanced baselines, effectively narrowing the gap between small and large LLMs on dynamic question answering. Notably, an 8B-parameter model using our approach matches the performance of a 671B model prompted seven months later. These results highlight the importance of combining temporal reasoning with KG evolution for robust and up-to-date LLM performance. Our code is publicly available at github.com/junhongmit/TREK.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの言語理解タスクに優れるが、進化する知識よりも推論に苦労する。
これを解決するために、最近の研究は、構造化された最新の情報を提供するために知識グラフ(KG)を用いたLLMの拡張について検討している。
しかし、既存の多くのアプローチでは、KGの静的スナップショットを仮定し、実世界のデータに固有の時間的ダイナミクスと事実的不整合を見落としている。
EvoReasonerは,グローバルな局所的なエンティティ・グラウンド,複数ルートの分解,時間的グラウンドのスコアリングを行う時間的マルチホップ推論アルゴリズムである。
基礎となるKGが正確かつ最新であることを保証するため、信頼に基づく矛盾解決と時間的傾向追跡を通じて、非構造化文書からKGを漸進的に更新する耐雑音性KG進化モジュールであるEvoKGを導入する。
我々は、時間的QAベンチマークと、KGを生文書から動的に更新する新しいエンドツーエンド設定に対するアプローチを評価する。
提案手法はプロンプトベースとKG強化ベースラインの両方に優れており,動的質問応答におけるLLMとLLMの差を効果的に狭めている。
特に, 提案手法を用いた8Bパラメータモデルでは, 7カ月後の671Bモデルの性能と一致した。
これらの結果は, 時間的推論とKG進化を組み合わせることの重要性を浮き彫りにした。
私たちのコードはgithub.com/junhongmit/TREKで公開されています。
関連論文リスト
- Improving Factuality in LLMs via Inference-Time Knowledge Graph Construction [30.381290814338413]
大規模言語モデル(LLM)は、パラメトリックメモリに制限があるため、現実的に一貫した答えを生み出すのにしばしば苦労する。
推論中に知識グラフ(KG)を動的に構築・拡張する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-31T16:36:40Z) - TRAIL: Joint Inference and Refinement of Knowledge Graphs with Large Language Models [5.678291291711662]
TRAILは思考、推論、インクリメンタルラーニングのための、新しく統合されたフレームワークである。
共同推論と動的KG精製を大きな言語モデルと組み合わせる。
複数のベンチマークでの大規模な実験により、TRAILは既存のKG拡張および検索拡張LDMベースラインを3%から13%上回った。
論文 参考訳(メタデータ) (2025-08-06T14:25:05Z) - Walk&Retrieve: Simple Yet Effective Zero-shot Retrieval-Augmented Generation via Knowledge Graph Walks [2.717314422130497]
大きな言語モデル(LLM)は印象的な推論能力を示してきたが、幻覚や時代遅れの知識に悩まされることが多い。
知識グラフ(KG)をベースとしたRetrieval-Augmented Generation(RAG)は、知識ベースから構造化された外部情報に応答を基盤として、これらの欠点を修復する。
しかしながら、多くのKGベースのRAGアプローチでは、(i)KGとテキスト表現の整合、(ii)検索精度と効率のバランス、(iii)動的に更新されたKGに適応する。
論文 参考訳(メタデータ) (2025-05-22T16:11:35Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Temporal Knowledge Graph Reasoning Based on Evolutional Representation
Learning [59.004025528223025]
将来の事実を予測する鍵は、歴史的事実を徹底的に理解することです。
TKGは実際には異なるタイムスタンプに対応するKGのシーケンスである。
グラフ畳み込みネットワーク(GCN)に基づく新しいリカレント進化ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-21T05:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。