論文の概要: NeSTR: A Neuro-Symbolic Abductive Framework for Temporal Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2512.07218v1
- Date: Mon, 08 Dec 2025 06:58:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.748208
- Title: NeSTR: A Neuro-Symbolic Abductive Framework for Temporal Reasoning in Large Language Models
- Title(参考訳): NeSTR:大規模言語モデルにおける時間推論のためのニューロシンボリック・アブダクティブ・フレームワーク
- Authors: Feng Liang, Weixin Zeng, Runhao Zhao, Xiang Zhao,
- Abstract要約: ニューロシンボリックテンポラル推論(Neuro-Symbolic Temporal Reasoning、NeSTR)は、構造的シンボル表現とハイブリッド反射推論を統合する新しいフレームワークである。
NeSTRはシンボリックエンコーディングを通じて明確な時間的関係を保ち、検証を通じて論理的一貫性を強制し、帰納的反射を用いて欠陥のある推論を修正する。
- 参考スコア(独自算出の注目度): 12.935644609836507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable performance across a wide range of natural language processing tasks. However, temporal reasoning, particularly under complex temporal constraints, remains a major challenge. To this end, existing approaches have explored symbolic methods, which encode temporal structure explicitly, and reflective mechanisms, which revise reasoning errors through multi-step inference. Nonetheless, symbolic approaches often underutilize the reasoning capabilities of LLMs, while reflective methods typically lack structured temporal representations, which can result in inconsistent or hallucinated reasoning. As a result, even when the correct temporal context is available, LLMs may still misinterpret or misapply time-related information, leading to incomplete or inaccurate answers. To address these limitations, in this work, we propose Neuro-Symbolic Temporal Reasoning (NeSTR), a novel framework that integrates structured symbolic representations with hybrid reflective reasoning to enhance the temporal sensitivity of LLM inference. NeSTR preserves explicit temporal relations through symbolic encoding, enforces logical consistency via verification, and corrects flawed inferences using abductive reflection. Extensive experiments on diverse temporal question answering benchmarks demonstrate that NeSTR achieves superior zero-shot performance and consistently improves temporal reasoning without any fine-tuning, showcasing the advantage of neuro-symbolic integration in enhancing temporal understanding in large language models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
しかし、時間的推論、特に複雑な時間的制約の下では、依然として大きな課題である。
この目的のために、既存のアプローチでは、時間構造を明示的にエンコードするシンボリック手法と、多段階推論による推論エラーを修正する反射機構を探索している。
それにもかかわらず、シンボリックなアプローチはLLMの推論能力を過小評価するが、反射的手法は典型的には構造化された時間的表現を欠いているため、矛盾や幻覚的推論をもたらすことがある。
結果として、正しい時間的文脈が利用可能であったとしても、LLMは時間的関連情報を誤解したり誤用したりし、不完全あるいは不正確な回答をもたらす可能性がある。
これらの制約に対処するため,本研究では,LLM推論の時間感度を高めるために,構造化記号表現とハイブリッド反射推論を統合する新しいフレームワークであるNeSTRを提案する。
NeSTRはシンボリックエンコーディングを通じて明確な時間的関係を保ち、検証を通じて論理的一貫性を強制し、帰納的反射を用いて欠陥のある推論を修正する。
多様な時間的質問応答ベンチマークに関する広範な実験は、NeSTRが優れたゼロショット性能を達成し、微調整なしで時間的推論を継続的に改善していることを示し、大きな言語モデルにおける時間的理解を高めるために、ニューロシンボリックな統合の利点を示している。
関連論文リスト
- Thinking with Drafts: Speculative Temporal Reasoning for Efficient Long Video Understanding [56.7383554589569]
人間のような知性には長いビデオ理解が不可欠であり、時間的文脈を超越したコヒーレントな認識と推論を可能にする。
強化学習に基づく投機的時間的推論フレームワークであるSpecTempを提案する。
我々はSpecTempが競争精度を維持するだけでなく、既存の思考とフレームの手法と比較して推論を著しく加速することを示した。
論文 参考訳(メタデータ) (2025-11-30T09:27:59Z) - Priors in Time: Missing Inductive Biases for Language Model Interpretability [58.07412640266836]
スパースオートエンコーダは、時間とともに概念の独立を前提としており、定常性を暗示している。
本稿では,時間的帰納バイアスを持つ新たな解釈可能性目標である時間的特徴分析を導入し,その表現を2つの部分に分解する。
私たちの結果は、堅牢な解釈可能性ツールの設計において、データにマッチする帰納的バイアスの必要性を浮き彫りにしています。
論文 参考訳(メタデータ) (2025-11-03T18:43:48Z) - LLM Interpretability with Identifiable Temporal-Instantaneous Representation [18.671694445771113]
本稿では,大規模言語モデルに特化して設計された時間的因果表現学習フレームワークを提案する。
提案手法は,実世界の複雑性に合わせてスケールした合成データセットに対して,理論的保証と有効性を示す。
論文 参考訳(メタデータ) (2025-09-27T14:14:41Z) - T-CPDL: A Temporal Causal Probabilistic Description Logic for Developing Logic-RAG Agent [5.439020425819001]
T-CPDL(Temporal Causal Probabilistic Description Logic)は、Description Logicを時間間隔演算子、明示的な因果関係、確率的アノテーションで拡張する統合フレームワークである。
T-CPDLは、言語モデル出力の推論精度、解釈可能性、信頼性校正を大幅に改善する。
この研究は、高度なLogic-Retrieval-Augmented Generation (Logic-RAG)フレームワークの開発の基礎となる。
論文 参考訳(メタデータ) (2025-06-23T12:11:15Z) - Learning to Reason Over Time: Timeline Self-Reflection for Improved Temporal Reasoning in Language Models [21.579319926212296]
大規模言語モデル(LLM)は、一貫性のあるテキストを生成し、コンテキストを理解し、推論タスクを実行するための強力なツールとして登場した。
彼らは時間的推論に苦しむが、それはイベントシーケンシングや時間的関係、時間的関係などの時間的関連情報を処理する必要がある。
我々は,タイムライン構築と反復的自己回帰を組み合わせた多段階プロセスを通じて,LLMの時間的推論能力を高める新しいフレームワークであるTISERを紹介する。
論文 参考訳(メタデータ) (2025-04-07T16:51:45Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - Unlocking Temporal Question Answering for Large Language Models with Tailor-Made Reasoning Logic [84.59255070520673]
大きな言語モデル(LLM)は、時間的推論に関わる際に課題に直面します。
本研究では,時間的質問応答タスクに特化して設計された新しいフレームワークであるTempLogicを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:57:53Z) - Standpoint Linear Temporal Logic [2.552459629685159]
本稿では,表象の時間的特徴とSLのマルチパースペクティブ・モデリング能力を組み合わせた新たな論理である,点点線形時間論理(SLTL)を提案する。
論理SLTLとその構文とその意味を定義し、決定可能性を確立し、複雑性を減らし、SLTL推論を自動化するための表計算を提供する。
論文 参考訳(メタデータ) (2023-04-27T15:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。