論文の概要: Addressing Logical Fallacies In Scientific Reasoning From Large Language Models: Towards a Dual-Inference Training Framework
- arxiv url: http://arxiv.org/abs/2512.04228v1
- Date: Wed, 03 Dec 2025 19:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.854627
- Title: Addressing Logical Fallacies In Scientific Reasoning From Large Language Models: Towards a Dual-Inference Training Framework
- Title(参考訳): 大規模言語モデルからの科学的推論における論理的誤りに対処する:デュアル推論トレーニングフレームワークを目指して
- Authors: Peter B. Walker, Hannah Davidson, Aiden Foster, Matthew Lienert, Thomas Pardue, Dale Russell,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理を変革し、科学、医療、意思決定の進歩への期待が高まっている。
本稿は,2つのコントリビューションを行う。まず,主要なプラットフォームから存在するLCMが,否定や反例,あるいは欠陥のある前提で科学的領域を推論する際に,体系的な弱点を示すことを示す。
第二に、肯定生成と構造化反事実否定を統合する二重推論トレーニングフレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.13854111346209866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have transformed natural language processing and hold growing promise for advancing science, healthcare, and decision-making. Yet their training paradigms remain dominated by affirmation-based inference, akin to \textit{modus ponens}, where accepted premises yield predicted consequents. While effective for generative fluency, this one-directional approach leaves models vulnerable to logical fallacies, adversarial manipulation, and failures in causal reasoning. This paper makes two contributions. First, it demonstrates how existing LLMs from major platforms exhibit systematic weaknesses when reasoning in scientific domains with negation, counterexamples, or faulty premises \footnote{Code to recreate these experiments are at https://github.com/hannahdavidsoncollege-maker/ScientificReasoningForEnvironment-MedicineWithLLMs. Second, it introduces a dual-reasoning training framework that integrates affirmative generation with structured counterfactual denial. Grounded in formal logic, cognitive science, and adversarial training, this training paradigm formalizes a computational analogue of ``denying the antecedent'' as a mechanism for disconfirmation and robustness. By coupling generative synthesis with explicit negation-aware objectives, the framework enables models that not only affirm valid inferences but also reject invalid ones, yielding systems that are more resilient, interpretable, and aligned with human reasoning.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理を変革し、科学、医療、意思決定の進歩への期待が高まっている。
しかし、彼らのトレーニングパラダイムは、承認された前提条件が予測された結果をもたらすような \textit{modus ponens} と同様、肯定に基づく推論によって支配されるままである。
この一方向のアプローチは、生成流速に効果があるが、論理的誤り、敵対的操作、因果推論の失敗に弱いモデルを残している。
この論文には2つの貢献がある。
まず、主要なプラットフォームからの既存のLCMが、否定、反例、または欠陥のある前提で科学的ドメインを推論する際の体系的な弱点をいかに示しているかを示します。
第二に、肯定生成と構造化反事実否定を統合する二重推論トレーニングフレームワークを導入する。
形式論理学、認知科学、敵対的訓練を基礎として、この訓練パラダイムは、不確認と堅牢性のメカニズムとして「先行者を否定する」の計算的類似を定式化する。
このフレームワークは、生成合成を明示的な否定を意識した目的と組み合わせることで、有効な推論を肯定するだけでなく、無効な推論を拒否するモデルを可能にし、より弾力性があり、解釈可能で、人間の推論と整合するシステムを生み出す。
関連論文リスト
- From Hypothesis to Premises: LLM-based Backward Logical Reasoning with Selective Symbolic Translation [8.104087344683604]
仮説駆動型後方論理推論(HBLR)を提案する。
中心となる考え方は、信頼を意識したシンボリック翻訳と仮説駆動の後方推論を統合することである。
HBLRは、精度と効率の両方において、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-12-03T01:52:31Z) - PEIRCE: Unifying Material and Formal Reasoning via LLM-Driven Neuro-Symbolic Refinement [13.042323420379187]
PEIRCEは、反復的予想批判プロセスを通じて物質と形式的推論を統合するために設計された、神経象徴的なフレームワークである。
自然言語説明生成の領域において,その能力を実証する。
論文 参考訳(メタデータ) (2025-04-05T09:04:47Z) - Tokens, the oft-overlooked appetizer: Large language models, the distributional hypothesis, and meaning [29.745218855471787]
トークン化は多くの言語モジュールの現在のアーキテクチャにおいて必要なコンポーネントである。
トークン化は、合理的な人間的な言語のパフォーマンスに必要である、と我々は主張する。
本稿では,建築的選択,すなわち構成,思考のための言語の優越性について論じる。
論文 参考訳(メタデータ) (2024-12-14T18:18:52Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - CausaLM: Causal Model Explanation Through Counterfactual Language Models [33.29636213961804]
CausaLMは、対実言語表現モデルを用いた因果モデル説明を作成するためのフレームワークである。
本稿では,BERT のような言語表現モデルが,ある意味ある概念に対する対実表現を効果的に学習できることを示す。
本手法の副産物は,テストされた概念の影響を受けない言語表現モデルである。
論文 参考訳(メタデータ) (2020-05-27T15:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。