論文の概要: CogAtom: From Cognitive Atoms to Olympiad-level Mathematical Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2509.17318v2
- Date: Wed, 24 Sep 2025 07:23:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 14:09:11.237384
- Title: CogAtom: From Cognitive Atoms to Olympiad-level Mathematical Reasoning in Large Language Models
- Title(参考訳): CogAtom:大規模言語モデルにおける認知的原子からオリンピックレベルの数学的推論
- Authors: Zhuofan Chen, Jiyuan He, Yichi Zhang, Xing Hu, Haoxing Wen, Jun Bai, Wenge Rong,
- Abstract要約: 我々は、厳密で認知的に多様な問題を合成するための新しい認知原子ベースのフレームワークであるCogAtomを紹介する。
私たちの研究は、スケーラブルで高品質な数学問題生成への認知的に根ざした道筋を提供します。
- 参考スコア(独自算出の注目度): 16.00687492947949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mathematical reasoning poses significant challenges for Large Language Models (LLMs) due to its demand for multi-step reasoning and abstract conceptual integration. While recent test-time scaling techniques rely heavily on high-quality, challenging problems, the scarcity of Olympiad-level math problems remains a bottleneck. We introduce CogAtom, a novel cognitive atom-based framework for synthesizing mathematically rigorous and cognitively diverse problems. Unlike prior approaches, CogAtom models problem construction as a process of selecting and recombining fundamental reasoning units, cognitive atoms, extracted from human-authored solutions. A diversity-promoting random walk algorithm enables exploration of the cognitive atom space, while a constraint-based recombination mechanism ensures logical soundness and structural validity. The combinatorial nature of the graph structure provides a near-infinite space of reasoning paths, and the walk algorithm systematically explores this space to achieve large-scale synthesis of high-quality problems; meanwhile, by controlling the number of cognitive atoms, we can precisely adjust problem difficulty, ensuring diversity, scalability, and controllability of the generated problems. Experimental results demonstrate that CogAtom outperforms existing methods in accuracy, reasoning depth, and diversity, generating problems that closely match the difficulty of AIME while exceeding it in structural variation. Our work offers a cognitively grounded pathway toward scalable, high-quality math problem generation.Our code is publicly available at https://github.com/Icarus-1111/CogAtom.
- Abstract(参考訳): 数学的推論は多段階推論と抽象概念統合の要求により,大規模言語モデル (LLM) にとって大きな課題となる。
最近のテストタイムスケーリング技術は、高品質で困難な問題に大きく依存しているが、オリンピアードレベルの数学問題の不足は依然としてボトルネックである。
数学的に厳密で認知学的に多様な問題を合成するための新しい認知原子ベースのフレームワークであるCogAtomを紹介する。
従来のアプローチとは異なり、CogAtomは、人間によって認可されたソリューションから抽出された基本的な推論単位である認知原子の選択と再結合のプロセスとして、問題構築をモデル化している。
多様性を動機とするランダムウォークアルゴリズムは認知原子空間の探索を可能にし、制約に基づく組換え機構は論理的健全性と構造的妥当性を保証する。
グラフ構造の組合せの性質は、推論経路のほぼ無限の空間を提供し、ウォークアルゴリズムは、この空間を体系的に探索し、高品質な問題の大規模合成を実現する。
実験結果から,CogAtomは従来の手法よりも精度,推理深度,多様性が優れており,AIMEの難易度によく適合するが,構造的変動では上回っていることがわかった。
私たちのコードはhttps://github.com/Icarus-1111/CogAtomで公開されています。
関連論文リスト
- EvolMathEval: Towards Evolvable Benchmarks for Mathematical Reasoning via Evolutionary Testing [26.594095530084996]
本稿では,進化テストに基づく自動ベンチマーク生成および進化フレームワークであるEvolMathEvalを紹介する。
ユニークな評価インスタンスab initioを動的に生成することにより、このフレームワークはデータ汚染のリスクを根本的に排除する。
EvolMathEvalは、連続的な自己イテレーションを通じて大量の高次問題を生成するだけでなく、公開データセットの複雑さを大幅に高めることもできる。
論文 参考訳(メタデータ) (2025-08-18T15:24:10Z) - OMEGA: Can LLMs Reason Outside the Box in Math? Evaluating Exploratory, Compositional, and Transformative Generalization [88.76091817642963]
最近の大規模言語モデル (LLMs) は、DeepSeek-R1-のような長い鎖の推論を持ち、オリンピアード級数学において印象的な成果を上げている。
本稿では,3つの分布外一般化の軸を評価するために設計された3つの一般化 Axes-a ベンチマークを用いた OMEGA-Out-of-distriion Math Problems Evaluation を提案する。
論文 参考訳(メタデータ) (2025-06-23T17:51:40Z) - Can Atomic Step Decomposition Enhance the Self-structured Reasoning of Multimodal Large Models? [68.72260770171212]
本稿では,最小のセマンティック・アトミックステップから構成される自己構造的思考の連鎖(SCoT)のパラダイムを提案する。
本手法は, 複雑なタスクに対して認知的CoT構造を生成するだけでなく, 過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2025-03-08T15:23:47Z) - PromptCoT: Synthesizing Olympiad-level Problems for Mathematical Reasoning in Large Language Models [59.920971312822736]
本稿では,高品質なオリンピアードレベルの数学問題を自動生成する新しい手法であるPromptCoTを紹介する。
提案手法は,問題構築の背景にある数学的概念と理論的根拠に基づいて複雑な問題を合成する。
提案手法は, GSM8K, MATH-500, AIME2024などの標準ベンチマークで評価され, 既存の問題生成手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-03-04T06:32:30Z) - AtomThink: Multimodal Slow Thinking with Atomic Step Reasoning [68.65389926175506]
思考の自己構造連鎖(SCoT)の新たなパラダイムを提案する。
本手法は, 複雑なタスクに対する認知的CoT構造を生成するだけでなく, より簡単なタスクに対して過度に考える現象を緩和する。
我々は,提案したAtomThinkがベースラインMLLMの性能を大幅に向上することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-18T11:54:58Z) - Unitary Complexity and the Uhlmann Transformation Problem [39.6823854861458]
本稿では, 単項合成問題の枠組みを導入し, 還元と単項複雑性クラスについて考察する。
このフレームワークは、ある絡み合った状態が局所的な操作によって別の状態に変換される複雑さを研究するのに使用します。
そこで我々は,多くの自然量子情報処理タスクの計算複雑性を研究するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-22T17:46:39Z) - Scalable Coupling of Deep Learning with Logical Reasoning [0.0]
NPハード推論問題の制約と基準を学習するために,スケーラブルなニューラルアーキテクチャと損失関数を導入する。
我々の損失関数は、Besagの擬似対数関係の主な制限の1つを解き、高エネルギーの学習を可能にする。
論文 参考訳(メタデータ) (2023-05-12T17:09:34Z) - Learning ground states of quantum Hamiltonians with graph networks [6.024776891570197]
多体シュロディンガー方程式の最低エネルギー固有状態を求めることは、基礎的な問題である。
変分法は、低次元の変分多様体内での最良の近似を求めることによってこの問題にアプローチする。
グラフニューラルネットワークを用いて、構造化された変分多様体を定義し、パラメータを最適化して高品質な近似を求める。
論文 参考訳(メタデータ) (2021-10-12T22:56:16Z) - Long-Time Error-Mitigating Simulation of Open Quantum Systems on Near Term Quantum Computers [38.860468003121404]
本研究では,最大2千個のエンタングゲートを含むディープ回路においても,ハードウェアエラーに対する堅牢性を示す量子ハードウェア上でのオープン量子システムシミュレーションについて検討する。
我々は, 無限の熱浴に結合した2つの電子系をシミュレートする: 1) 駆動電界における放散自由電子系, 2) 磁場中の単一軌道における2つの相互作用電子の熱化 - ハバード原子。
この結果から, 開放量子系シミュレーションアルゴリズムは, ノイズの多いハードウェア上で, 同様に複雑な非散逸性アルゴリズムをはるかに上回ることができることを示した。
論文 参考訳(メタデータ) (2021-08-02T21:36:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。