論文の概要: EDUMATH: Generating Standards-aligned Educational Math Word Problems
- arxiv url: http://arxiv.org/abs/2510.06965v1
- Date: Wed, 08 Oct 2025 12:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.49454
- Title: EDUMATH: Generating Standards-aligned Educational Math Word Problems
- Title(参考訳): EDUMATH: 標準に整合した教育用数学語問題の生成
- Authors: Bryan R. Christ, Penelope Molitz, Jonathan Kropko, Thomas Hartvigsen,
- Abstract要約: 数学語問題(MWP)は、K-12の教育ツールであり、学生の興味や能力レベルにカスタマイズすることで、学習結果が向上する。
学生の興味や数学教育基準に合わせてカスタマイズされたMWPを生成することで,LLMが数学教育を支援することを提案する。
- 参考スコア(独自算出の注目度): 12.21710818435723
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Math word problems (MWPs) are critical K-12 educational tools, and customizing them to students' interests and ability levels can increase learning outcomes. However, teachers struggle to find time to customize MWPs for each student given large class sizes and increasing burnout. We propose that LLMs can support math education by generating MWPs customized to student interests and math education standards. To this end, we use a joint human expert-LLM judge approach to evaluate over 11,000 MWPs generated by open and closed LLMs and develop the first teacher-annotated dataset for standards-aligned educational MWP generation. We show the value of our data by using it to train a 12B open model that matches the performance of larger and more capable open models. We also use our teacher-annotated data to train a text classifier that enables a 30B open LLM to outperform existing closed baselines without any training. Next, we show our models' MWPs are more similar to human-written MWPs than those from existing models. We conclude by conducting the first study of customized LLM-generated MWPs with grade school students, finding they perform similarly on our models' MWPs relative to human-written MWPs but consistently prefer our customized MWPs.
- Abstract(参考訳): 数学語問題(MWP)は、K-12の教育ツールであり、学生の興味や能力レベルにカスタマイズすることで、学習結果が向上する。
しかし、教師は、クラスサイズが大きく、燃え尽きる度に、各生徒にMWPをカスタマイズする時間を見つけるのに苦労している。
学生の興味や数学教育基準に合わせてカスタマイズされたMWPを生成することで,LLMが数学教育を支援することを提案する。
この目的のために,オープンかつクローズドなLCMが生成する11,000MWPを,人間専門家とLLMの合同で評価し,標準に整合したMWP生成のための最初の教師アノテートデータセットを開発する。
より大きく、より有能なオープンモデルのパフォーマンスにマッチする12Bオープンモデルをトレーニングするために使用するデータの価値を示します。
また、教師による注釈付きデータを用いてテキスト分類器を訓練し、30BのオープンLCMがトレーニングなしで既存のクローズドベースラインを上回ります。
次に、我々のモデルのMWPは、既存のモデルよりも人書きMWPに近いことを示す。
我々は、小学生を対象に、LLM生成MWPを初めて研究し、人間の書き起こしたMWPと比較して、我々のモデルのMWPでも同様に機能するが、常にカスタマイズされたMWPを好んでいると結論付けた。
関連論文リスト
- Elementary Math Word Problem Generation using Large Language Models [0.7004392422347242]
大規模言語モデル(LLM)に基づくMWP生成システムを提案する。
私たちのシステムへの唯一の入力は、必要となるMWPの数、グレード、質問の種類(加算、減算など)である。
論文 参考訳(メタデータ) (2025-06-06T10:20:56Z) - Cutting Through the Noise: Boosting LLM Performance on Math Word Problems [40.94606103259912]
大規模言語モデルは数学用語の問題を解くのに優れるが、無関係な情報を含む現実世界の問題に苦戦する。
本稿では,無関係な変数を追加することで,MWPの逆変分を生成するプロンプトフレームワークを提案する。
敵の訓練インスタンスの微調整は、敵のMWPのパフォーマンスを8%向上させる。
論文 参考訳(メタデータ) (2024-05-30T18:07:13Z) - MWPToolkit: An Open-Source Framework for Deep Learning-Based Math Word
Problem Solvers [29.611442087779896]
MWPToolkitはMath Word Problem (MWP)を解くための最初のオープンソースフレームワークである。
広範に使用されている4つの単一方程式生成ベンチマークと2つの複数方程式生成ベンチマークに対して、17 MWPソルバを実装し比較する。
論文 参考訳(メタデータ) (2021-09-02T09:18:09Z) - MWP-BERT: A Strong Baseline for Math Word Problems [47.51572465676904]
数学語問題(英: Math word problem、MWP)とは、自然言語による問題記述の列を、実行可能な数学方程式に変換するタスクである。
近年, MWP の逐次モデル化は, 文脈理解の数学的側面から評価されているが, 事前学習言語モデル (PLM) はMWP の解法として研究されていない。
我々はMWP-BERTを導入し、テキスト記述と数理論理の整合性を捉える事前訓練されたトークン表現を得る。
論文 参考訳(メタデータ) (2021-07-28T15:28:41Z) - One Teacher is Enough? Pre-trained Language Model Distillation from
Multiple Teachers [54.146208195806636]
本稿では,事前学習型言語モデル圧縮のためのMT-BERTという多言語知識蒸留フレームワークを提案する。
MT-BERTは、複数の教師PLMから高品質な学生モデルを訓練できることを示す。
PLMの圧縮におけるMT-BERTの有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2021-06-02T08:42:33Z) - Are NLP Models really able to Solve Simple Math Word Problems? [7.433931244705934]
MWP で質問された質問にアクセスできない MWP の解法は依然として MWP の大部分を解けることを示す。
既存のデータセットから抽出したサンプルに対して、慎重に選択されたバリエーションを適用して作成するチャレンジデータセットSVAMPを導入する。
最先端モデルによって達成される最高の精度はSVAMPよりも大幅に低いため、MWPの最も単純なモデルでも多くの処理が可能であることが示される。
論文 参考訳(メタデータ) (2021-03-12T10:23:47Z) - Mathematical Word Problem Generation from Commonsense Knowledge Graph
and Equations [27.063577644162358]
実世界のシナリオにおいて,コモンセンス知識グラフと方程式から多様なMWPを生成するエンド・ツー・エンドのニューラルモデルを開発した。
提案したモデルは、記号方程式とコモンセンス知識のエッジ付きレヴィグラフから両方の表現を学習する。
教育用ゴールドスタンダードセットと大規模MWPセットの実験により,本手法がMWP生成タスクよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-13T06:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。