論文の概要: MATRIX AS PLAN: Structured Logical Reasoning with Feedback-Driven Replanning
- arxiv url: http://arxiv.org/abs/2601.10101v1
- Date: Thu, 15 Jan 2026 06:12:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.010669
- Title: MATRIX AS PLAN: Structured Logical Reasoning with Feedback-Driven Replanning
- Title(参考訳): MATRIX AS PLAN: フィードバック駆動リプランニングによる構造化論理推論
- Authors: Ke Chen, Jiandian Zeng, Zihao Peng, Guo Li, Guangxue Zhang, Tian Wang,
- Abstract要約: Chain-of-Thoughtプロンプトは、大規模言語モデルの推論能力を高めることが示されている。
ニューロシンボリック法は、外部の解法を通して形式的正しさを強制することによって、このギャップに対処する。
行列ベースの計画を持つ構造化CoTフレームワークであるMatrixCoTを提案する。
- 参考スコア(独自算出の注目度): 9.431480849387595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As knowledge and semantics on the web grow increasingly complex, enhancing Large Language Models (LLMs) comprehension and reasoning capabilities has become particularly important. Chain-of-Thought (CoT) prompting has been shown to enhance the reasoning capabilities of LLMs. However, it still falls short on logical reasoning tasks that rely on symbolic expressions and strict deductive rules. Neuro-symbolic methods address this gap by enforcing formal correctness through external solvers. Yet these solvers are highly format-sensitive, and small instabilities in model outputs can lead to frequent processing failures. LLM-driven approaches avoid parsing brittleness, but they lack structured representations and process-level error-correction mechanisms. To further enhance the logical reasoning capabilities of LLMs, we propose MatrixCoT, a structured CoT framework with a matrix-based plan. Specifically, we normalize and type natural language expressions, attach explicit citation fields, and introduce a matrix-based planning method to preserve global relations among steps. The plan becomes a verifiable artifact, making execution more stable. For verification, we also add a feedback-driven replanning mechanism. Under semantic-equivalence constraints, it identifies omissions and defects, rewrites and compresses the dependency matrix, and produces a more trustworthy final answer. Experiments on five logical-reasoning benchmarks and five LLMs show that, without relying on external solvers, MatrixCoT enhances both robustness and interpretability when tackling complex symbolic reasoning tasks, while maintaining competitive performance.
- Abstract(参考訳): Webにおける知識と意味がますます複雑化するにつれ、Large Language Models(LLM)の理解と推論能力の強化が特に重要になっている。
CoT(Chain-of-Thought)プロンプトはLLMの推論能力を高めることが示されている。
しかし、シンボリックな表現や厳密な推論規則に依存する論理的推論のタスクには依然として不足している。
ニューロシンボリック法は、外部の解法を通して形式的正しさを強制することによって、このギャップに対処する。
しかし、これらの解法は非常にフォーマットに敏感であり、モデル出力の不安定さが頻繁な処理障害を引き起こす可能性がある。
LLMによるアプローチは脆さの解析は避けるが、構造的表現やプロセスレベルのエラー訂正機構は欠如している。
LLMの論理的推論能力をさらに高めるために,行列ベースプランを備えた構造化CoTフレームワークMatrixCoTを提案する。
具体的には、自然言語表現の正規化と型付けを行い、明示的な引用フィールドを付加し、ステップ間のグローバルな関係を維持するための行列ベースの計画手法を導入する。
計画は検証可能な成果物となり、実行をより安定させる。
検証にはフィードバック駆動のリプランニング機構も追加します。
意味論的同値制約の下では、欠落と欠陥を特定し、依存関係マトリックスを書き換えて圧縮し、より信頼できる最終回答を生成する。
5つの論理推論ベンチマークと5つのLCMの実験により、MatrixCoTは、競合性能を維持しながら複雑なシンボリック推論タスクに対処する際の堅牢性と解釈性の両方を向上することを示した。
関連論文リスト
- Last Layer Logits to Logic: Empowering LLMs with Logic-Consistent Structured Knowledge Reasoning [55.55968342644846]
大規模言語モデル(LLM)は、膨大な非構造化テキストの事前学習を通じて、自然言語推論タスクにおいて優れた性能を達成する。
LLM出力の論理的欠陥を修正するために,ロジット強化とロジットフィルタリングをコアモジュールとして組み込んだ textitLogits-to-Logic フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T07:08:27Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Do LLMs Dream of Discrete Algorithms? [0.7646713951724011]
大規模言語モデル(LLM)は、人工知能の風景を急速に変化させてきた。
確率的推論への依存は、厳密な論理的推論を必要とする領域における有効性を制限する。
本稿では,論理ベースの推論モジュールでLLMを増強するニューロシンボリックアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-29T22:03:01Z) - LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - CRANE: Reasoning with constrained LLM generation [16.123698230193202]
制約付きデコードアルゴリズムであるCRANEを提案し,制約付き生成の正しさと制約なし生成の柔軟性のバランスをとる。
CRANEは最先端の制約付き復号化戦略と標準の制約なし復号化戦略の両方を大きく上回っている。
論文 参考訳(メタデータ) (2025-02-13T08:23:42Z) - Reversal of Thought: Enhancing Large Language Models with Preference-Guided Reverse Reasoning Warm-up [9.42385235462794]
大規模言語モデル(LLM)は、推論タスクにおいて顕著な性能を示すが、数学的および複雑な論理的推論において制限に直面している。
バッチ推論前のウォームアップフェーズにおいて,LLMの論理的推論能力を高めるために,Reversal of Thought (RoT)を提案する。
RoT は Preference-Guided Reverse Reasoning warm-up 戦略を利用している。
論文 参考訳(メタデータ) (2024-10-16T07:44:28Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。