論文の概要: REAMS: Reasoning Enhanced Algorithm for Maths Solving
- arxiv url: http://arxiv.org/abs/2509.16241v1
- Date: Tue, 16 Sep 2025 21:09:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.689576
- Title: REAMS: Reasoning Enhanced Algorithm for Maths Solving
- Title(参考訳): REAMS: 数学の解法を改良したアルゴリズム
- Authors: Eishkaran Singh, Tanav Singh Bajaj, Siddharth Nayak,
- Abstract要約: ゼロショット学習と数学的推論を利用して、高度な数学問題に対する解を解き、説明し、生成する言語ベースのソリューションを提案する。
提案手法は90.15%の精度を実現し,従来の81%のベンチマークよりも大幅に改善され,自動数学的問題解決における新しい標準が設定された。
- 参考スコア(独自算出の注目度): 1.7023742022011212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The challenges of solving complex university-level mathematics problems, particularly those from MIT, and Columbia University courses, and selected tasks from the MATH dataset, remain a significant obstacle in the field of artificial intelligence. Conventional methods have consistently fallen short in this domain, highlighting the need for more advanced approaches. In this paper, we introduce a language-based solution that leverages zero-shot learning and mathematical reasoning to effectively solve, explain, and generate solutions for these advanced math problems. By integrating program synthesis, our method reduces reliance on large-scale training data while significantly improving problem-solving accuracy. Our approach achieves an accuracy of 90.15%, representing a substantial improvement over the previous benchmark of 81% and setting a new standard in automated mathematical problem-solving. These findings highlight the significant potential of advanced AI methodologies to address and overcome the challenges presented by some of the most complex mathematical courses and datasets.
- Abstract(参考訳): 複雑な大学レベルの数学問題、特にMITとコロンビア大学の数学コース、そしてMATHデータセットから選択されたタスクを解決するという課題は、人工知能の分野で大きな障害となっている。
従来の手法はこの領域では一貫して不足しており、より高度なアプローチの必要性を強調している。
本稿では、ゼロショット学習と数学的推論を利用して、これらの高度な数学問題の解を効果的に解き、説明し、生成する言語ベースのソリューションを提案する。
プログラム合成を統合することにより,大規模トレーニングデータへの依存を低減し,問題解決の精度を大幅に向上させる。
提案手法は90.15%の精度を実現し,従来の81%のベンチマークよりも大幅に改善され,自動数学的問題解決における新しい標準が設定された。
これらの発見は、最も複雑な数学的コースやデータセットによってもたらされる課題に対処し克服する、高度なAI方法論の有意義な可能性を浮き彫りにしている。
関連論文リスト
- HARDMath2: A Benchmark for Applied Mathematics Built by Students as Part of a Graduate Class [27.93059568425132]
HARDMath2は、大学院応用数学クラスの中核トピックをカバーする211のオリジナル問題のデータセットである。
このデータセットはハーバード大学のコア大学院数学コースの学生とインストラクターによって設計され、検証された。
このデータセットは、学生がクラスシラバスと整合した難しい問題を書き、洗練するよう促す、新しい協調環境を通じて構築されます。
論文 参考訳(メタデータ) (2025-05-17T00:52:49Z) - MathAgent: Leveraging a Mixture-of-Math-Agent Framework for Real-World Multimodal Mathematical Error Detection [53.325457460187046]
これらの課題に対処するために設計された新しいMixture-of-Math-AgentフレームワークであるMathAgentを紹介する。
MathAgentはエラー検出を3つのフェーズに分解し、それぞれが特別なエージェントによって処理される。
実世界の教育データに基づいてMathAgentを評価し,誤差ステップ同定の精度を約5%向上した。
論文 参考訳(メタデータ) (2025-03-23T16:25:08Z) - PromptCoT: Synthesizing Olympiad-level Problems for Mathematical Reasoning in Large Language Models [59.920971312822736]
本稿では,高品質なオリンピアードレベルの数学問題を自動生成する新しい手法であるPromptCoTを紹介する。
提案手法は,問題構築の背景にある数学的概念と理論的根拠に基づいて複雑な問題を合成する。
提案手法は, GSM8K, MATH-500, AIME2024などの標準ベンチマークで評価され, 既存の問題生成手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-03-04T06:32:30Z) - Mathify: Evaluating Large Language Models on Mathematical Problem Solving Tasks [34.09857430966818]
我々は,11番目と12番目の標準数学 NCERT 教科書から得られた数学データセット "MathQuest" を紹介する。
LLaMA-2, WizardMath, MAmmoTHの3つの大きな言語モデルを用いた微調整実験を行った。
この3つのモデルのうち,MAmmoTH-13Bが最も熟練したモデルとして登場し,提示された数理問題の解法において,最高レベルの能力を達成した。
論文 参考訳(メタデータ) (2024-04-19T08:45:42Z) - SEGO: Sequential Subgoal Optimization for Mathematical Problem-Solving [64.38649623473626]
大規模言語モデル(LLM)は人工知能の大幅な進歩を導いた。
数学的問題を解く能力を高めるために,textbfSEquential subtextbfGoal textbfOptimization (SEGO) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:56:40Z) - Highlighting Named Entities in Input for Auto-Formulation of
Optimization Problems [0.0]
本稿では,線形プログラム語問題を数学的定式化に変換する手法を提案する。
入力に名前付きエンティティを活用し、これらのエンティティをハイライトするためにインプットを拡張します。
提案手法は,NL4Optコンペティションへの応募者の中で最も高い精度を実現し,生成トラックにおける第1位を確保した。
論文 参考訳(メタデータ) (2022-12-26T16:13:57Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Measuring Mathematical Problem Solving With the MATH Dataset [55.4376028963537]
12,500の競合数学問題のデータセットであるMATHを紹介する。
各問題には、答えの導出と説明を生成するためのモデルを教えるために使用できる完全なステップバイステップソリューションがあります。
また、モデルに数学の基礎を教えるための補助的事前学習データセットも提供します。
論文 参考訳(メタデータ) (2021-03-05T18:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。