論文の概要: V-Math: An Agentic Approach to the Vietnamese National High School Graduation Mathematics Exams
- arxiv url: http://arxiv.org/abs/2509.12251v1
- Date: Fri, 12 Sep 2025 07:22:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.651219
- Title: V-Math: An Agentic Approach to the Vietnamese National High School Graduation Mathematics Exams
- Title(参考訳): V-Math:ベトナム国立高校卒業数学科におけるエージェント的アプローチ
- Authors: Duong Q. Nguyen, Quy P. Nguyen, Nguyen Van Nhon, Quang-Thinh Bui, H. Nguyen-Xuan,
- Abstract要約: V-Mathは、ベトナムの高校生が国立高校グラデーション数学演習(NHSGMEs)の準備をするのを支援することを目的としている
健全なフレームワークは、仕様行列条件付き質問生成器、詳細なステップバイステップ推論のための解決器/説明器、学生のパフォーマンスに適応するパーソナライズされた家庭教師の3つの専門的なAIエージェントを統合している。
- 参考スコア(独自算出の注目度): 2.0160582186611733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper develops an autonomous agentic framework called V-Math that aims to assist Vietnamese high school students in preparing for the National High School Graduation Mathematics Exams (NHSGMEs). The salient framework integrates three specialized AI agents: a specification-matrix-conditioned question generator, a solver/explainer for detailed step-by-step reasoning, and a personalized tutor that adapts to student performance. Beyond enabling self-paced student practice, V-Math supports teachers by generating innovative, compliant exam questions and building diverse, high-quality question banks. This reduces manual workload and enriches instructional resources. We describe the system architecture, focusing on practice modes for learners and teacher-oriented features for question generation. Preliminary evaluations demonstrate that V-Math produces matrix-aligned exams with high solution accuracy, delivers coherent explanations, and enhances the variety of practice materials. These results highlight its potential to support scalable, equitable mathematics preparation aligned with national standards while also empowering teachers through AI-assisted exam creation.
- Abstract(参考訳): 本稿では,ベトナムの高校生がNHSGME(National High School Graduation Mathematics Exams)を準備する際の支援を目的とした,V-Mathと呼ばれる自律型エージェントフレームワークを開発する。
健全なフレームワークは、仕様行列条件付き質問生成器、詳細なステップバイステップ推論のための解決器/説明器、学生のパフォーマンスに適応するパーソナライズされた家庭教師の3つの専門的なAIエージェントを統合している。
V-Mathは、セルフペースの学生の練習を可能にするだけでなく、革新的でコンプライアンスの取れた試験質問を作成し、多様な高品質の質問銀行を構築することで、教師を支援している。
これにより、手作業の負荷が軽減され、教育リソースが強化される。
本稿では,学習者のための実践モードと質問生成のための教師指向機能に着目し,システムアーキテクチャについて述べる。
予備的な評価では、V-Mathは解法精度の高い行列整列試験を行い、コヒーレントな説明を提供し、様々な実践材料を強化することが示されている。
これらの結果は、スケーラブルで公平な数学準備を全国標準に適合させつつ、AIによる試験作成を通じて教師に権限を与える可能性を強調している。
関連論文リスト
- Assessing the Quality of AI-Generated Exams: A Large-Scale Field Study [18.104664166381877]
大規模言語モデル(LLM)は、従来の教育と学習の方法に挑戦する。
有望な応用の1つは、特定のコースの内容に合わせてカスタマイズされた試験の生成である。
論文 参考訳(メタデータ) (2025-08-09T01:20:53Z) - Automated Generation of Curriculum-Aligned Multiple-Choice Questions for Malaysian Secondary Mathematics Using Generative AI [0.10995326465245928]
本稿では,マレーシアの教育システムにおけるスケーラブルで高品質な教育評価ツールの必要性について論じる。
生成AI(GenAI)の可能性を強調しながら、事実の正確性とカリキュラムの整合性を保証するという課題を認識している。
論文 参考訳(メタデータ) (2025-08-06T13:30:51Z) - MathTutorBench: A Benchmark for Measuring Open-ended Pedagogical Capabilities of LLM Tutors [76.1634959528817]
我々は、総合的なチューリングモデル評価のためのオープンソースのベンチマークであるMathTutorBenchを紹介する。
MathTutorBenchには、ダイアログベースの教育における科学の研究によって定義された、家庭教師の能力をカバーするデータセットとメトリクスが含まれている。
閉鎖的およびオープンウェイトなモデルの幅広いセットを評価し、問題解決能力によって示される課題の専門知識が、すぐには良い教育に変換されないことを発見した。
論文 参考訳(メタデータ) (2025-02-26T08:43:47Z) - DrawEduMath: Evaluating Vision Language Models with Expert-Annotated Students' Hand-Drawn Math Images [19.425346207453927]
DrawEduMathは、数学問題に対する学生の手書き回答の2,030枚の画像からなる英語のデータセットである。
教師は、各画像のフリーフォーム記述と11,661対の質問回答(QA)を含む詳細なアノテーションを提供した。
最先端のビジョン言語モデルでさえ、DrawEduMathの質問に多くの改善の余地があることを示します。
論文 参考訳(メタデータ) (2025-01-24T19:03:42Z) - Formal Mathematical Reasoning: A New Frontier in AI [60.26950681543385]
我々は公式な数学的推論を提唱し、AI4Mathを次のレベルに進めるには不可欠であると主張している。
既存の進捗を要約し、オープンな課題について議論し、将来の成功を測るための重要なマイルストーンを想定します。
論文 参考訳(メタデータ) (2024-12-20T17:19:24Z) - MathBench: Evaluating the Theory and Application Proficiency of LLMs with a Hierarchical Mathematics Benchmark [82.64129627675123]
MathBenchは、大規模言語モデルの数学的能力を厳格に評価する新しいベンチマークである。
MathBenchは幅広い数学の分野にまたがっており、理論的な理解と実践的な問題解決のスキルの両方を詳細に評価している。
論文 参考訳(メタデータ) (2024-05-20T17:52:29Z) - Math Multiple Choice Question Generation via Human-Large Language Model Collaboration [5.081508251092439]
複数選択質問(MCQ)は,学生の知識を評価するための一般的な方法である。
大規模言語モデル(LLM)の最近の進歩は、MCQ生成の自動化への関心を喚起している。
本稿では,LLMと教育者間の協調を支援するためのプロトタイプツールを提案する。
論文 参考訳(メタデータ) (2024-05-01T20:53:13Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - An AI-based Solution for Enhancing Delivery of Digital Learning for
Future Teachers [6.0988393123743485]
デジタル学習と教育をスケールする上で最も難しい部分の1つは、学習者の知識と能力を評価することである。
本稿では,事前に録音されたビデオ講義から質問を自動的に生成する人工知能ベースのソリューションVidVersityQGを提案する。
論文 参考訳(メタデータ) (2021-11-09T06:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。