論文の概要: Atomic Thinking of LLMs: Decoupling and Exploring Mathematical Reasoning Abilities
- arxiv url: http://arxiv.org/abs/2509.25725v1
- Date: Tue, 30 Sep 2025 03:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.003003
- Title: Atomic Thinking of LLMs: Decoupling and Exploring Mathematical Reasoning Abilities
- Title(参考訳): LLMの原子的思考:数学的推論能力の分離と探索
- Authors: Jiayi Kuang, Haojing Huang, Yinghui Li, Xinnian Liang, Zhikun Xu, Yangning Li, Xiaoyu Tan, Chao Qu, Meishan Zhang, Ying Shen, Philip S. Yu,
- Abstract要約: 現在の大規模推論モデルは、多様な数学的問題と長い思考連鎖を持つトレーニングデータセットのスケールアップに依存している、と我々は主張する。
対照的に、人間は複雑な問題を複数の基本原子能力に分解する傾向がある。
本研究は,(1)代数,幾何学,解析,トポロジーの4つの主要な数学分野にまたがる場固有の能力,および(2)概念的理解を含む異なるレベルでの論理能力の2つの次元に分類する。
- 参考スコア(独自算出の注目度): 81.86909922715368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated outstanding performance in mathematical reasoning capabilities. However, we argue that current large-scale reasoning models primarily rely on scaling up training datasets with diverse mathematical problems and long thinking chains, which raises questions about whether LLMs genuinely acquire mathematical concepts and reasoning principles or merely remember the training data. In contrast, humans tend to break down complex problems into multiple fundamental atomic capabilities. Inspired by this, we propose a new paradigm for evaluating mathematical atomic capabilities. Our work categorizes atomic abilities into two dimensions: (1) field-specific abilities across four major mathematical fields, algebra, geometry, analysis, and topology, and (2) logical abilities at different levels, including conceptual understanding, forward multi-step reasoning with formal math language, and counterexample-driven backward reasoning. We propose corresponding training and evaluation datasets for each atomic capability unit, and conduct extensive experiments about how different atomic capabilities influence others, to explore the strategies to elicit the required specific atomic capability. Evaluation and experimental results on advanced models show many interesting discoveries and inspirations about the different performances of models on various atomic capabilities and the interactions between atomic capabilities. Our findings highlight the importance of decoupling mathematical intelligence into atomic components, providing new insights into model cognition and guiding the development of training strategies toward a more efficient, transferable, and cognitively grounded paradigm of "atomic thinking".
- Abstract(参考訳): 大規模言語モデル (LLM) は数学的推論能力において優れた性能を示した。
しかし、現在の大規模推論モデルは、多種多様な数学的問題や長い思考連鎖によるトレーニングデータセットのスケールアップに大きく依存しているため、LLMが真に数学的概念や推論原則を習得するか、あるいは単にトレーニングデータを思い出すだけなのか、という疑問が提起される。
対照的に、人間は複雑な問題を複数の基本原子能力に分解する傾向がある。
これに触発された我々は、数学的原子能力を評価するための新しいパラダイムを提案する。
本研究は,(1)代数,幾何学,解析,トポロジーの4つの主要な数学分野にまたがる分野固有の能力,(2)概念的理解,前方多段階推論と形式的数学言語,および反例駆動の後方推論の2つのレベルにおける論理能力の2つの次元に分類する。
本稿では,各原子能力ユニットに対して対応するトレーニングおよび評価データセットを提案し,異なる原子能力が他に与える影響について広範な実験を行い,必要な特定の原子能力を引き出すための戦略を探る。
高度なモデルに対する評価と実験の結果は、様々な原子能力に関するモデルの異なる性能と、原子能力間の相互作用に関する多くの興味深い発見とインスピレーションを示している。
我々の研究は、数学的知性を原子成分に分解することの重要性を強調し、モデル認知への新たな洞察を提供し、より効率的で伝達可能で認知的に根ざした「原子思考」のパラダイムに向けたトレーニング戦略の開発を導く。
関連論文リスト
- Can Atomic Step Decomposition Enhance the Self-structured Reasoning of Multimodal Large Models? [68.72260770171212]
本稿では,最小のセマンティック・アトミックステップから構成される自己構造的思考の連鎖(SCoT)のパラダイムを提案する。
本手法は, 複雑なタスクに対して認知的CoT構造を生成するだけでなく, 過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-03-08T15:23:47Z) - AtomThink: Multimodal Slow Thinking with Atomic Step Reasoning [68.65389926175506]
思考の自己構造連鎖(SCoT)の新たなパラダイムを提案する。
本手法は, 複雑なタスクに対する認知的CoT構造を生成するだけでなく, より簡単なタスクに対して過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - Laying the Foundation First? Investigating the Generalization from Atomic Skills to Complex Reasoning Tasks [40.7766635942194]
本稿では,原子スキルが複雑な推論タスクに自然に一般化できるかどうかを探索する枠組みを提案する。
次に、より優れたスキルの一般化を実現するために、階層的なカリキュラム学習訓練戦略を導入する。
階層的なカリキュラム学習を活用することで、一般化を成功させ、複雑な推論タスクにおけるオープンソースのLMの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-14T15:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。