論文の概要: A Benchmark for Math Misconceptions: Bridging Gaps in Middle School Algebra with AI-Supported Instruction
- arxiv url: http://arxiv.org/abs/2412.03765v1
- Date: Wed, 04 Dec 2024 23:10:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:33.904426
- Title: A Benchmark for Math Misconceptions: Bridging Gaps in Middle School Algebra with AI-Supported Instruction
- Title(参考訳): 数学の誤解のベンチマーク:AIによる教えを取り入れた中学生のギャップを埋める
- Authors: Otero Nancy, Druga Stefania, Lan Andrew,
- Abstract要約: 本研究では,中学代数学が人工知能ベースの教育プラットフォームで使用されるための評価ベンチマークを紹介する。
データセットは、代数、一般的な誤り、220の診断例に関する55の誤解を含む。
5人の教育者のうち4人は、学生の誤解の診断や教師の訓練にAIでデータセットを使用することに関心を示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study introduces an evaluation benchmark for middle school algebra to be used in artificial intelligence(AI) based educational platforms. The goal is to support the design of AI systems that can enhance learner conceptual understanding of algebra by taking into account their current level of algebra comprehension. The data set comprises 55 misconceptions about algebra, common errors, and 220 diagnostic examples identified in previous peer-reviewed studies. We provide an example application using a large language model, observing a range of precision and recall scores depending on the topic and experimental setup that reaches 83.9% when including educator feedback and restricting it by topic. We found that topics such as ratios and proportions prove as difficult for LLMs as they are for students. We included a human assessment of LLMs results and feedback from five middle school math educators on the clarity and occurrence of misconceptions in the dataset and the potential use of AI in conjunction with the dataset. Most educators (80% or more) indicated that they encounter these misconceptions among their students, suggesting the relevance of the data set to teaching middle school algebra. Despite varying familiarity with AI tools, four out of five educators expressed interest in using the data set with AI to diagnose student misconceptions or train teachers. The results emphasize the importance of topic-constrained testing, the need for multimodal approaches, and the relevance of human expertise to gain practical insights when using AI for human learning.
- Abstract(参考訳): 本研究では、人工知能(AI)ベースの教育プラットフォームで使用される中学代数学の評価ベンチマークを紹介する。
目的は、現在の代数理解のレベルを考慮して、学習者による代数の概念的理解を高めるAIシステムの設計を支援することである。
このデータセットは、代数、一般的な誤り、および以前のピアレビュー研究で特定された220の診断例に関する55の誤解を含む。
本稿では,大規模な言語モデルを用いて,学習者からのフィードバックを取り入れ,トピックによって制限した場合に83.9%に達するトピックや実験的な設定に応じて,様々な精度とリコールスコアを観測するサンプルアプリケーションを提案する。
その結果,LLMでは学生ほど,比例や比例などのトピックが難しいことが判明した。
我々は,中学生5人の数学教育者によるLLMの結果の人間による評価と,データセットにおける誤解の明確化と発生,およびデータセットとAIの潜在的な利用に関するフィードバックを含む。
多くの教育者 (80%以上) は、学生の間でこれらの誤解に遭遇していることを示し、中学代数学を教えるためのデータセットの関連性を示唆した。
AIツールに慣れているにもかかわらず、5人の教育者のうち4人は、学生の誤解の診断や教師の訓練にAIでデータセットを使用することに関心を示した。
その結果、話題に制約のあるテストの重要性、マルチモーダルなアプローチの必要性、そして人間の学習にAIを使用する際の実践的な洞察を得るための人間の専門知識の関連性が強調された。
関連論文リスト
- MNIST-Fraction: Enhancing Math Education with AI-Driven Fraction Detection and Analysis [3.54834102467122]
我々は,MNIST-Fractionの開発を通じて,数学教育分野への新たな貢献を示す。
MNIST-Fractionは有名なMNISTにインスパイアされたデータセットで、特に手書き数分数の認識と理解に特化している。
我々のアプローチは、深層学習、特に畳み込みニューラルネットワーク(CNN)を手書き数分数の認識と理解に活用することである。
論文 参考訳(メタデータ) (2024-12-11T18:56:28Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - DiVERT: Distractor Generation with Variational Errors Represented as Text for Math Multiple-choice Questions [42.148511874019256]
算数多重選択問題(MCQ)において,障害の背後にある誤りの解釈可能な表現を学習する新しい変分法であるDiVERTを導入する。
提案手法は,7Bパラメータを持つベース・オープンソース LLM を用いているにもかかわらず,GPT-4o を用いた最先端の手法を下流のイントラクタ生成において上回っていることを示す。
数学教育者による人間評価も行っており、DiVERTが人間による評価に匹敵する品質のエラーラベルを導いていることを発見した。
論文 参考訳(メタデータ) (2024-06-27T17:37:31Z) - CourseAssist: Pedagogically Appropriate AI Tutor for Computer Science Education [1.052788652996288]
このポスターでは、コンピュータサイエンス教育用に作られた新しいLLMベースのチューターシステムであるCourseAssistを紹介している。
一般的なLLMシステムとは異なり、CourseAssistは検索強化生成、ユーザ意図分類、質問分解を使用して、AI応答を特定のコース材料や学習目標と整合させる。
論文 参考訳(メタデータ) (2024-05-01T20:43:06Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z) - Determining the Difficulties of Students With Dyslexia via Virtual
Reality and Artificial Intelligence: An Exploratory Analysis [0.0]
VRAIlexiaプロジェクトは、この問題を解決するために、2つの異なるツールを提案している。
最初のものは、特定の心理学的・心理学的テストの実施のために、高等教育機関(Higher Education Institutions)のディプレックス学の学生の間で作成され、配布されている。
第2のツールは、アプリケーションやその他の調査を通じて収集されたデータに、特定の人工知能アルゴリズムを適用する。
論文 参考訳(メタデータ) (2024-01-15T20:26:09Z) - Evaluating Language Models for Mathematics through Interactions [116.67206980096513]
大型言語モデル(LLM)と対話し,評価するためのプロトタイププラットフォームであるCheckMateを紹介した。
我々はCheckMateと共同で3つの言語モデル(InstructGPT, ChatGPT, GPT-4)を、学部レベルの数学の証明支援として評価する研究を行った。
我々は、人間の行動の分類を導き、概して肯定的な相関にもかかわらず、正しさと知覚的有用性の間に顕著な相違点があることを明らかにする。
論文 参考訳(メタデータ) (2023-06-02T17:12:25Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。