論文の概要: Plan of Knowledge: Retrieval-Augmented Large Language Models for Temporal Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2511.04072v1
- Date: Thu, 06 Nov 2025 05:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.310791
- Title: Plan of Knowledge: Retrieval-Augmented Large Language Models for Temporal Knowledge Graph Question Answering
- Title(参考訳): 知識プラン:時間的知識グラフ質問応答のための検索強化大言語モデル
- Authors: Xinying Qian, Ying Zhang, Yu Zhao, Baohang Zhou, Xuhui Sui, Xiaojie Yuan,
- Abstract要約: 時間的知識グラフ質問回答(TKGQA)は、時間的知識グラフ(TKGs)からの事実情報を活用することで、時間に敏感な質問に答えることを目的としている。
- 参考スコア(独自算出の注目度): 23.330273675675897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal Knowledge Graph Question Answering (TKGQA) aims to answer time-sensitive questions by leveraging factual information from Temporal Knowledge Graphs (TKGs). While previous studies have employed pre-trained TKG embeddings or graph neural networks to inject temporal knowledge, they fail to fully understand the complex semantic information of time constraints. Recently, Large Language Models (LLMs) have shown remarkable progress, benefiting from their strong semantic understanding and reasoning generalization capabilities. However, their temporal reasoning ability remains limited. LLMs frequently suffer from hallucination and a lack of knowledge. To address these limitations, we propose the Plan of Knowledge framework with a contrastive temporal retriever, which is named PoK. Specifically, the proposed Plan of Knowledge module decomposes a complex temporal question into a sequence of sub-objectives from the pre-defined tools, serving as intermediate guidance for reasoning exploration. In parallel, we construct a Temporal Knowledge Store (TKS) with a contrastive retrieval framework, enabling the model to selectively retrieve semantically and temporally aligned facts from TKGs. By combining structured planning with temporal knowledge retrieval, PoK effectively enhances the interpretability and factual consistency of temporal reasoning. Extensive experiments on four benchmark TKGQA datasets demonstrate that PoK significantly improves the retrieval precision and reasoning accuracy of LLMs, surpassing the performance of the state-of-the-art TKGQA methods by 56.0% at most.
- Abstract(参考訳): 時間的知識グラフ質問回答(TKGQA)は、時間的知識グラフ(TKGs)の事実情報を活用することで、時間に敏感な質問に答えることを目的としている。
これまでの研究では、時間的知識を注入するために、事前訓練されたTKG埋め込みやグラフニューラルネットワークを使用してきたが、時間的制約の複雑な意味情報を十分に理解できなかった。
最近、Large Language Models (LLMs) は、その強力な意味理解と推論一般化能力の恩恵を受け、目覚ましい進歩を見せている。
しかし、その時間的推論能力は限られている。
LLMは幻覚や知識不足に悩まされることが多い。
これらの制約に対処するため、Plan of Knowledge framework with a contrastive temporal retriever, which is named PoK。
具体的には、提案したPlan of Knowledgeモジュールは、複雑な時間的質問を事前定義されたツールからサブオブジェクトのシーケンスに分解し、推論探索の中間的なガイダンスとして機能する。
並列に時間的知識ストア(TKS)をコントラスト検索フレームワークで構築し、TKGから意味的および時間的に整合した事実を選択的に検索することを可能にする。
構造化計画と時間的知識検索を組み合わせることで、PoKは時間的推論の解釈可能性と現実的一貫性を効果的に強化する。
4つのベンチマークTKGQAデータセットの大規模な実験により、PoKはLLMの検索精度と推論精度を大幅に改善し、最先端のTKGQA手法の性能を最大56.0%上回った。
関連論文リスト
- Plan Then Retrieve: Reinforcement Learning-Guided Complex Reasoning over Knowledge Graphs [52.16166558205338]
Graph-RFTは、"plan-KGsearch-and-Websearch-during-think"パラダイムを備えた、2段階強化KGQAフレームワークである。
これにより、LLMは、不完全な知識条件下で、KGやWebソース間で自律的な計画と適応的なスケジューリングを行うことができる。
論文 参考訳(メタデータ) (2025-10-23T16:04:13Z) - MemoTime: Memory-Augmented Temporal Knowledge Graph Enhanced Large Language Model Reasoning [22.89546852658161]
時間的知識グラフは時間的推論の信頼できる情報源を提供する。
既存の TKG ベースの LLM 推論手法は、4つの大きな課題に苦慮している。
メモリ拡張時間知識グラフフレームワークであるMemoTimeを提案する。
論文 参考訳(メタデータ) (2025-10-15T14:43:31Z) - Enhancing Temporal Sensitivity and Reasoning for Time-Sensitive Question Answering [23.98067169669452]
Time-Sensitive Question Answering (TSQA)は、特定の時間的文脈を効果的に活用することを要求する。
本稿では,時間的認知と推論を時間的情報認識の埋め込みとグラニュラコントラスト強化学習を通じて促進する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-25T13:13:21Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Two-stage Generative Question Answering on Temporal Knowledge Graph Using Large Language Models [24.417129499480975]
本稿ではまず,新しい時間的知識グラフ質問応答フレームワークGenTKGQAを提案する。
まず、LLMの本質的な知識を利用して、時間的制約や質問の構造的リンクを余分な訓練なしに掘り下げる。
次に、サブグラフのグラフニューラルネットワーク信号とLLMのテキスト表現を非浅めに融合させる仮想知識インジケータを設計する。
論文 参考訳(メタデータ) (2024-02-26T13:47:09Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。