論文の概要: VeriCoT: Neuro-symbolic Chain-of-Thought Validation via Logical Consistency Checks
- arxiv url: http://arxiv.org/abs/2511.04662v1
- Date: Thu, 06 Nov 2025 18:50:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.572504
- Title: VeriCoT: Neuro-symbolic Chain-of-Thought Validation via Logical Consistency Checks
- Title(参考訳): VeriCoT:論理的一貫性チェックによるニューロシンボリックチェーンの検証
- Authors: Yu Feng, Nathaniel Weir, Kaj Bostrom, Sam Bayless, Darion Cassel, Sapana Chaudhary, Benjamin Kiesl-Reiter, Huzefa Rangwala,
- Abstract要約: 本稿では,Chain-of-Thought推論から論理的論理論を抽出し,検証する,ニューロシンボリックな手法であるVeriCoTを紹介する。
ProofWriter、LegalBench、BioASQデータセットの実験は、VeriCoTが欠陥のある推論を効果的に識別していることを示している。
また,(1)推測時間自己回帰,(2)教師付き微調整(SFT),(3)選好微調整にVeriCoTの検証信号を利用する。
- 参考スコア(独自算出の注目度): 18.68532103004733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs can perform multi-step reasoning through Chain-of-Thought (CoT), but they cannot reliably verify their own logic. Even when they reach correct answers, the underlying reasoning may be flawed, undermining trust in high-stakes scenarios. To mitigate this issue, we introduce VeriCoT, a neuro-symbolic method that extracts and verifies formal logical arguments from CoT reasoning. VeriCoT formalizes each CoT reasoning step into first-order logic and identifies premises that ground the argument in source context, commonsense knowledge, or prior reasoning steps. The symbolic representation enables automated solvers to verify logical validity while the NL premises allow humans and systems to identify ungrounded or fallacious reasoning steps. Experiments on the ProofWriter, LegalBench, and BioASQ datasets show VeriCoT effectively identifies flawed reasoning, and serves as a strong predictor of final answer correctness. We also leverage VeriCoT's verification signal for (1) inference-time self-reflection, (2) supervised fine-tuning (SFT) on VeriCoT-distilled datasets and (3) preference fine-tuning (PFT) with direct preference optimization (DPO) using verification-based pairwise rewards, further improving reasoning validity and accuracy.
- Abstract(参考訳): LLMはChain-of-Thought (CoT)を通して多段階の推論を行うことができるが、それぞれの論理を確実に検証することはできない。
正しい答えに達したとしても、根底にある推論には欠陥があり、高いリスクシナリオに対する信頼を損なう可能性がある。
この問題を軽減するために、我々は、CoT推論から公式論理論を抽出し、検証する神経象徴的手法であるVeriCoTを紹介する。
VeriCoTは、各CoT推論ステップを一階述語論理に形式化し、ソースコンテキスト、コモンセンス知識、または事前推論ステップの議論の基礎となる前提を特定する。
記号表現は、自動解法が論理的妥当性を検証するのを可能にする一方で、NLの前提は人間やシステムが未解決または誤った推論ステップを特定することを許している。
ProofWriter、LegalBench、BioASQデータセットの実験では、VeriCoTは欠陥のある推論を効果的に識別し、最終回答の正しさの強力な予測器として機能している。
また,(1)推測時間自己回帰,(2)VeriCoT蒸留データセット上の教師付き微調整(SFT),(3)直接選好最適化(DPO)を用いた選好微調整(PFT)などにおいて,検証に基づく対の報酬を用いた検証信号を活用し,推論の有効性と精度を向上させる。
関連論文リスト
- SemCoT: Accelerating Chain-of-Thought Reasoning through Semantically-Aligned Implicit Tokens [43.78883511257627]
CoT(Chain-of-Thought)の推論は、効率クリティカルなアプリケーションへの大量展開を妨げる。
本稿では,SemCoTと呼ばれる意味的に整合した暗黙的CoTフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-28T20:11:54Z) - SIM-CoT: Supervised Implicit Chain-of-Thought [108.30049193668083]
Implicit Chain-of-Thought(CoT)メソッドは、大規模言語モデルにおける明示的なCoT推論に代わるトークン効率の代替手段を提供する。
暗黙的なCoTの計算予算をスケールする際の中核的な不安定性問題を特定する。
そこで我々はSIM-CoTを提案する。SIM-CoTは,遅延推論空間を安定化・拡張するためのステップレベルの監視を実現するモジュールである。
論文 参考訳(メタデータ) (2025-09-24T17:01:32Z) - Unveiling Confirmation Bias in Chain-of-Thought Reasoning [12.150655660758359]
大型言語モデル(LLM)の推論能力を高めるために、チェーン・オブ・シークレット(CoT)プロンプトが広く採用されている。
本研究は認知心理学におけるテキスト確認バイアスのレンズを通してCoTの行動を理解する新しい視点を示す。
論文 参考訳(メタデータ) (2025-06-14T01:30:17Z) - Thought-Path Contrastive Learning via Premise-Oriented Data Augmentation for Logical Reading Comprehension [9.67774998354062]
これまでの研究は主に、Chain-of-Thought(CoT)やデータ拡張による論理的推論能力の向上に重点を置いてきた。
本稿では,CoTの論理式を生成するためのPODA(Premise-Oriented Data Augmentation)フレームワークを提案する。
また,本論文では,原案と反実例の推論経路を比較検討する新たな思考経路コントラスト学習手法についても紹介する。
論文 参考訳(メタデータ) (2024-09-22T15:44:43Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Logical Credal Networks [87.25387518070411]
本稿では,論理と確率を組み合わせた先行モデルの多くを一般化した表現的確率論的論理である論理的クレダルネットワークを紹介する。
本稿では,不確実性のあるマスターミンドゲームを解くこと,クレジットカード詐欺を検出することを含む,最大後部推論タスクの性能について検討する。
論文 参考訳(メタデータ) (2021-09-25T00:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。