論文の概要: MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2510.13614v1
- Date: Wed, 15 Oct 2025 14:43:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.714858
- Title: MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning
- Title(参考訳): MemoTime: メモリ拡張時間知識グラフによる大規模言語モデル推論
- Authors: Xingyu Tan, Xiaoyang Wang, Xiwei Xu, Xin Yuan, Liming Zhu, Wenjie Zhang,
- Abstract要約: 時間的知識グラフは時間的推論の信頼できる情報源を提供する。
既存の TKG ベースの LLM 推論手法は、4つの大きな課題に苦慮している。
メモリ拡張時間知識グラフフレームワークであるMemoTimeを提案する。
- 参考スコア(独自算出の注目度): 22.89546852658161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved impressive reasoning abilities, but struggle with temporal understanding, especially when questions involve multiple entities, compound operators, and evolving event sequences. Temporal Knowledge Graphs (TKGs), which capture vast amounts of temporal facts in a structured format, offer a reliable source for temporal reasoning. However, existing TKG-based LLM reasoning methods still struggle with four major challenges: maintaining temporal faithfulness in multi-hop reasoning, achieving multi-entity temporal synchronization, adapting retrieval to diverse temporal operators, and reusing prior reasoning experience for stability and efficiency. To address these issues, we propose MemoTime, a memory-augmented temporal knowledge graph framework that enhances LLM reasoning through structured grounding, recursive reasoning, and continual experience learning. MemoTime decomposes complex temporal questions into a hierarchical Tree of Time, enabling operator-aware reasoning that enforces monotonic timestamps and co-constrains multiple entities under unified temporal bounds. A dynamic evidence retrieval layer adaptively selects operator-specific retrieval strategies, while a self-evolving experience memory stores verified reasoning traces, toolkit decisions, and sub-question embeddings for cross-type reuse. Comprehensive experiments on multiple temporal QA benchmarks show that MemoTime achieves overall state-of-the-art results, outperforming the strong baseline by up to 24.0%. Furthermore, MemoTime enables smaller models (e.g., Qwen3-4B) to achieve reasoning performance comparable to that of GPT-4-Turbo.
- Abstract(参考訳): 大規模言語モデル(LLM)は、印象的な推論能力を達成したが、特に複数のエンティティ、複合演算子、進化するイベントシーケンスを含む場合、時間的理解に苦慮している。
時間的知識グラフ(TKG)は、時間的推論のための信頼できる情報源を提供する。
しかし、既存のTKGベースのLCM推論手法は、マルチホップ推論における時間的忠実性の維持、マルチエンタリティ時間同期の実現、多様な時間的演算子への検索の適応、安定性と効率性のための事前の推論経験の再利用の4つの大きな課題に依然として苦労している。
これらの課題に対処するために,構造化基底化,再帰的推論,連続的経験学習を通じてLLM推論を強化するメモリ拡張時知識グラフフレームワークであるMemoTimeを提案する。
MemoTimeは複雑な時間的質問を階層的な時間木に分解し、単調なタイムスタンプを強制し、統合された時間的境界の下で複数のエンティティを共制約する演算子認識推論を可能にする。
動的エビデンス検索層は、演算子固有の検索戦略を適応的に選択し、自己進化体験メモリは、検証された推論トレース、ツールキット決定、およびクロスタイプの再利用のためのサブクエスト埋め込みを記憶する。
複数の時間的QAベンチマークに関する総合的な実験は、MemoTimeが全体の最先端の結果を達成し、強いベースラインを最大24.0%上回っていることを示している。
さらに、MemoTimeはより小さなモデル(例えばQwen3-4B)で、GPT-4-Turboに匹敵する推論性能を実現することができる。
関連論文リスト
- KnowMT-Bench: Benchmarking Knowledge-Intensive Long-Form Question Answering in Multi-Turn Dialogues [58.305425399644086]
MT-LFQA(Multi-Turn Long-Form Question Answering)は、知識集約ドメインにおけるLLM(Large Language Models)の重要な応用パラダイムである。
textbfKnowMT-Benchは、知識集約的な分野にわたるLLMのためのMT-LFQAを体系的に評価するために設計された、テキストファーストなベンチマークである。
論文 参考訳(メタデータ) (2025-09-26T04:32:29Z) - T-GRAG: A Dynamic GraphRAG Framework for Resolving Temporal Conflicts and Redundancy in Knowledge Retrieval [4.114480531154174]
本稿では,時間とともに知識の進化をモデル化する動的時間認識RAGフレームワークであるT-GRAGを提案する。
T-GRAGは、(1)時間スタンプで進化するグラフ構造を生成するテンポラル知識グラフ生成装置、(2)複雑な時間的クエリを管理可能なサブクエリに分解するテンポラルクエリ分解機構、(3)時間的サブグラフ間の検索を段階的にフィルタリングし洗練する3層インタラクティブレトリバーからなる。
T-GRAGは検索精度と応答性の両方において,RAGおよびGraphRAGベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-08-03T09:15:36Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Learning to Reason Over Time: Timeline Self-Reflection for Improved Temporal Reasoning in Language Models [21.579319926212296]
大規模言語モデル(LLM)は、一貫性のあるテキストを生成し、コンテキストを理解し、推論タスクを実行するための強力なツールとして登場した。
彼らは時間的推論に苦しむが、それはイベントシーケンシングや時間的関係、時間的関係などの時間的関連情報を処理する必要がある。
我々は,タイムライン構築と反復的自己回帰を組み合わせた多段階プロセスを通じて,LLMの時間的推論能力を高める新しいフレームワークであるTISERを紹介する。
論文 参考訳(メタデータ) (2025-04-07T16:51:45Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - Unlocking Temporal Question Answering for Large Language Models with Tailor-Made Reasoning Logic [84.59255070520673]
大きな言語モデル(LLM)は、時間的推論に関わる際に課題に直面します。
本研究では,時間的質問応答タスクに特化して設計された新しいフレームワークであるTempLogicを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。