論文の概要: A Syllogistic Probe: Tracing the Evolution of Logic Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.17426v1
- Date: Sat, 24 Jan 2026 11:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.727232
- Title: A Syllogistic Probe: Tracing the Evolution of Logic Reasoning in Large Language Models
- Title(参考訳): ソロジカルプローブ:大規模言語モデルにおける論理推論の進化の追跡
- Authors: Zhengqing Zang, Yuqi Ding, Yanmei Gu, Changkai Song, Zhengkai Yang, Guoping Du, Junbo Zhao, Haobo Wang,
- Abstract要約: 大規模言語モデル(LLM)が基礎となる論理的枠組みに類似した進化を示すかどうかを考察する。
実存輸入をプローブとして,従来の論理学および現代論理学のシロジズムを評価する。
- 参考スコア(独自算出の注目度): 17.118221176971982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human logic has gradually shifted from intuition-driven inference to rigorous formal systems. Motivated by recent advances in large language models (LLMs), we explore whether LLMs exhibit a similar evolution in the underlying logical framework. Using existential import as a probe, we for evaluate syllogism under traditional and modern logic. Through extensive experiments of testing SOTA LLMs on a new syllogism dataset, we have some interesting findings: (i) Model size scaling promotes the shift toward modern logic; (ii) Thinking serves as an efficient accelerator beyond parameter scaling; (iii) the Base model plays a crucial role in determining how easily and stably this shift can emerge. Beyond these core factors, we conduct additional experiments for in-depth analysis of properties of current LLMs on syllogistic reasoning.
- Abstract(参考訳): 人間の論理は、直観駆動推論から厳密な形式体系へと徐々に移行してきた。
大規模言語モデル (LLM) の最近の進歩により, LLM が基礎となる論理的枠組みに類似した進化を示すかどうかを考察する。
実存輸入をプローブとして,従来の論理学および現代論理学のシロジズムを評価する。
新たなシロジズムデータセット上でSOTA LLMをテストする広範な実験を通じて、興味深い発見がいくつかある。
(i)モデルサイズスケーリングは、現代論理へのシフトを促進する。
(二)パラメータスケーリングを超越した効率的な加速器として考えること。
3) ベースモデルは、このシフトがいかに簡単かつ安定して現れるかを決定する上で、重要な役割を担います。
これらの中核因子の他に、シロメトリクス推論における現在のLLMの特性の詳細な解析のための追加実験を行う。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。