論文の概要: Elementary Math Word Problem Generation using Large Language Models
- arxiv url: http://arxiv.org/abs/2506.05950v1
- Date: Fri, 06 Jun 2025 10:20:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.42424
- Title: Elementary Math Word Problem Generation using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた初等数学単語生成
- Authors: Nimesh Ariyarathne, Harshani Bandara, Yasith Heshan, Omega Gamage, Surangika Ranathunga, Dilan Nayanajith, Yutharsan Sivapalan, Gayathri Lihinikaduarachchi, Tharoosha Vihidun, Meenambika Chandirakumar, Sanujen Premakumar, Sanjula Gathsara,
- Abstract要約: 大規模言語モデル(LLM)に基づくMWP生成システムを提案する。
私たちのシステムへの唯一の入力は、必要となるMWPの数、グレード、質問の種類(加算、減算など)である。
- 参考スコア(独自算出の注目度): 0.7004392422347242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mathematics is often perceived as a complex subject by students, leading to high failure rates in exams. To improve Mathematics skills, it is important to provide sample questions for students to practice problem-solving. Manually creating Math Word Problems (MWPs) is time consuming for tutors, because they have to type in natural language while adhering to grammar and spelling rules of the language. Existing Deep Learning techniques for MWP generation either require a tutor to provide the initial portion of the MWP, and/or additional information such as an equation. In this paper, we present an MWP generation system based on Large Language Models (LLMs) that overcome the need for additional input - the only input to our system is the number of MWPs needed, the grade and the type of question (e.g. addition, subtraction). Unlike the existing LLM-based solutions for MWP generation, we carried out an extensive set of experiments involving different LLMs, prompting strategies, techniques to improve the diversity of questions, as well as techniques that employ human feedback to improve LLM performance. Human and automated evaluations confirmed that the generated MWPs are high in quality, with minimal spelling and grammar issues. However, LLMs still struggle to generate questions that adhere to the specified grade and question type requirements.
- Abstract(参考訳): 数学は学生によって複雑な科目と見なされることが多く、試験の失敗率が高い。
数学のスキル向上のためには,学生に問題解決を実践するためのサンプル質問を行うことが重要である。
手動でMath Word Problems(MWP)を作成するのは、自然言語を入力しながら文法やスペルの規則を守らなければならないため、家庭教師にとって時間を要する。
既存のMWP生成のためのディープラーニング技術は、MWPの初期部分および/または方程式のような追加情報を提供するためにチューターを必要とする。
本稿では,Large Language Models (LLMs) に基づくMWP生成システムを提案する。
MWP 生成のための既存の LLM ベースのソリューションとは違って,我々は様々な LLM に関する広範な実験を行い,その戦略,質問の多様性向上のための技術,LLM の性能向上のための人的フィードバックを活用した技術について検討した。
人間と自動評価により、生成されたMWPは、スペルと文法の問題を最小限に抑え、高品質であることが確認された。
しかし、LLMは依然として、特定のグレードと質問タイプの要求に準拠する質問を生成するのに苦労している。
関連論文リスト
- Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Can LLMs Solve longer Math Word Problems Better? [47.227621867242]
数学語問題(MWP)は、大規模言語モデル(LLM)の能力を評価する上で重要な役割を果たす。
より長い文脈が数学的推論に与える影響は未解明のままである。
本研究は文脈長一般化可能性(CoLeG)の研究の先駆者である。
論文 参考訳(メタデータ) (2024-05-23T17:13:50Z) - What Makes Math Word Problems Challenging for LLMs? [5.153388971862429]
数学語問題(MWP)の重要な言語的・数学的特徴を詳細に分析する。
大型言語モデル(LLM)におけるMWPの全体的な難しさに対する各特徴の影響をよりよく理解するために、特徴ベースの分類器を訓練する。
論文 参考訳(メタデータ) (2024-03-17T23:18:40Z) - Benchmarking Hallucination in Large Language Models based on
Unanswerable Math Word Problem [58.3723958800254]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて非常に効果的である。
それらは幻覚と呼ばれる曖昧な文脈で信頼できない予想を生じさせる可能性がある。
本稿では,不問答語問題(MWP)に基づく質問回答(QA)におけるLLM幻覚評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-06T09:06:34Z) - Do Language Models Exhibit the Same Cognitive Biases in Problem Solving as Human Learners? [140.9751389452011]
本研究では,大言語モデル(LLM)の偏りを,算術語問題を解く際に,子どもに知られているものと関連づけて検討する。
我々は,これらの各テストに対して,問題特徴のきめ細かい制御を可能にするニューロシンボリックアプローチを用いて,新しい単語問題を生成する。
論文 参考訳(メタデータ) (2024-01-31T18:48:20Z) - Three Questions Concerning the Use of Large Language Models to
Facilitate Mathematics Learning [4.376598435975689]
本稿では,学生の数学的問題解決能力を高めるために,大規模言語モデルを採用する際の課題について論じる。
LLMは間違った推論プロセスを生成することができ、また、学生の回答を正そうとするときに与えられた質問の理性を理解するのに困難を示す。
論文 参考訳(メタデータ) (2023-10-20T16:05:35Z) - Math Word Problem Generation with Mathematical Consistency and Problem
Context Constraints [37.493809561634386]
算数方程式を与えられた算術演算語問題(MWP)を生成する問題について検討する。
既存のアプローチは、数学的に無効あるいは不満足な言語品質を持つMWPを生成する傾向がある。
論文 参考訳(メタデータ) (2021-09-09T20:24:25Z) - MWP-BERT: A Strong Baseline for Math Word Problems [47.51572465676904]
数学語問題(英: Math word problem、MWP)とは、自然言語による問題記述の列を、実行可能な数学方程式に変換するタスクである。
近年, MWP の逐次モデル化は, 文脈理解の数学的側面から評価されているが, 事前学習言語モデル (PLM) はMWP の解法として研究されていない。
我々はMWP-BERTを導入し、テキスト記述と数理論理の整合性を捉える事前訓練されたトークン表現を得る。
論文 参考訳(メタデータ) (2021-07-28T15:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。