論文の概要: Towards Explainable Temporal Reasoning in Large Language Models: A Structure-Aware Generative Framework
- arxiv url: http://arxiv.org/abs/2505.15245v1
- Date: Wed, 21 May 2025 08:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.299146
- Title: Towards Explainable Temporal Reasoning in Large Language Models: A Structure-Aware Generative Framework
- Title(参考訳): 大規模言語モデルにおける説明可能な時間推論に向けて:構造を考慮した生成フレームワーク
- Authors: Zihao Jiang, Ben Liu, Miao Peng, Wenjie Xu, Yao Xiao, Zhenyan Shan, Min Peng,
- Abstract要約: 本稿では,多種多様な時間的粒度を網羅したベンチマークを導入し,説明可能な時間的推論における大規模言語モデルの能力を体系的に評価する。
提案するGETERは,グラフ構造を記述可能なテンポラル推論のためのテキストと統合した新しい構造認識型生成フレームワークである。
GETERは最先端の性能を実現し、その効果と強力な一般化能力を示す。
- 参考スコア(独自算出の注目度): 18.770512964705176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While large language models (LLMs) show great potential in temporal reasoning, most existing work focuses heavily on enhancing performance, often neglecting the explainable reasoning processes underlying the results. To address this gap, we introduce a comprehensive benchmark covering a wide range of temporal granularities, designed to systematically evaluate LLMs' capabilities in explainable temporal reasoning. Furthermore, our findings reveal that LLMs struggle to deliver convincing explanations when relying solely on textual information. To address challenge, we propose GETER, a novel structure-aware generative framework that integrates Graph structures with text for Explainable TEmporal Reasoning. Specifically, we first leverage temporal knowledge graphs to develop a temporal encoder that captures structural information for the query. Subsequently, we introduce a structure-text prefix adapter to map graph structure features into the text embedding space. Finally, LLMs generate explanation text by seamlessly integrating the soft graph token with instruction-tuning prompt tokens. Experimental results indicate that GETER achieves state-of-the-art performance while also demonstrating its effectiveness as well as strong generalization capabilities. Our dataset and code are available at https://github.com/carryTatum/GETER.
- Abstract(参考訳): 大きな言語モデル(LLM)は時間的推論において大きな可能性を示すが、既存の研究の多くはパフォーマンスの向上に重点を置いており、多くの場合、結果の基礎となる説明可能な推論プロセスを無視している。
このギャップに対処するために、我々は、多種多様な時間的粒度をカバーする包括的なベンチマークを導入し、説明可能な時間的推論においてLLMの能力を体系的に評価する。
さらに,本研究の結果から,LLMはテキスト情報のみに頼って説得力のある説明を行うのに苦慮していることが明らかとなった。
提案するGETERは,グラフ構造を記述可能なテンポラル推論のためのテキストと統合した新しい構造認識型生成フレームワークである。
具体的には、まず時間的知識グラフを利用して、クエリの構造情報をキャプチャする時間的エンコーダを開発する。
その後、グラフ構造の特徴をテキスト埋め込み空間にマッピングする構造テキストプレフィックスアダプタを導入する。
最後に、LLMは、ソフトグラフトークンと命令調整プロンプトトークンをシームレスに統合することで、説明文を生成する。
実験結果から,GETERは最先端性能を実現し,その性能と強力な一般化能力を示した。
私たちのデータセットとコードはhttps://github.com/carryTatum/GETER.orgで公開されています。
関連論文リスト
- Filter-then-Generate: Large Language Models with Structure-Text Adapter for Knowledge Graph Completion [20.973071287301067]
大規模言語モデル(LLM)は、膨大な固有の知識と優れた意味理解能力を示す。
実証的な証拠は、LLMは従来の知識グラフ補完手法よりも一貫して性能が悪いことを示唆している。
そこで本研究では,これらの課題に対処するために,FtGという命令チューニングに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:22:04Z) - Struct-X: Enhancing Large Language Models Reasoning with Structured Data [38.558614152006975]
構造Xは5つの重要なフェーズを通して動作する:read-model-fill-reflect-reason'
構造化データをグラフ埋め込みを用いて位相空間にエンコードする。
行方不明のエンティティ情報を知識検索モジュールで埋める。
最後のフェーズでは、選択したトークンでトポロジネットワークを構築する。
論文 参考訳(メタデータ) (2024-07-17T13:06:25Z) - Can LLMs Effectively Leverage Graph Structural Information through Prompts, and Why? [18.328637750057037]
大きな言語モデル(LLM)は、リッチテキスト属性でグラフを処理する能力に注目が集まっている。
グラフデータに固有の構造情報の取り込みにより,LLMの予測性能が向上する理由を理解することを目的としている。
論文 参考訳(メタデータ) (2023-09-28T16:58:37Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。