論文の概要: Using machine learning to measure evidence of students' sensemaking in physics courses
- arxiv url: http://arxiv.org/abs/2503.15638v1
- Date: Wed, 19 Mar 2025 18:49:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 22:27:05.567261
- Title: Using machine learning to measure evidence of students' sensemaking in physics courses
- Title(参考訳): 物理科における学生の感覚形成の証拠を機械学習で計測する
- Authors: Kaitlin Gili, Kyle Heuton, Astha Shah, Michael C. Hughes,
- Abstract要約: 教育において、問題解決の正しさは、しばしば学生の学習と不適切に混同される。
本研究では,物理問題に対する解法を記述した説明書から,学生の身体感覚形成の証拠を定量化する手法を提案する。
我々は,ロジスティック回帰を用いた3つのユニークな言語エンコーダを実装し,2023年のタフツ大学の入門物理学講座の実際の学生385名について,デプロイ可能性の分析を行った。
- 参考スコア(独自算出の注目度): 5.509349550209279
- License:
- Abstract: In the education system, problem-solving correctness is often inappropriately conflated with student learning. Advances in both Physics Education Research (PER) and Machine Learning (ML) provide the initial tools to develop a more meaningful and efficient measurement scheme for whether physics students are engaging in sensemaking: a learning process of figuring out the how and why for a particular phenomena. In this work, we contribute such a measurement scheme, which quantifies the evidence of students' physical sensemaking given their written explanations for their solutions to physics problems. We outline how the proposed human annotation scheme can be automated into a deployable ML model using language encoders and shared probabilistic classifiers. The procedure is scalable for a large number of problems and students. We implement three unique language encoders with logistic regression, and provide a deployability analysis on 385 real student explanations from the 2023 Introduction to Physics course at Tufts University. Furthermore, we compute sensemaking scores for all students, and analyze these measurements alongside their corresponding problem-solving accuracies. We find no linear relationship between these two variables, supporting the hypothesis that one is not a reliable proxy for the other. We discuss how sensemaking scores can be used alongside problem-solving accuracies to provide a more nuanced snapshot of student performance in physics class.
- Abstract(参考訳): 教育システムでは、問題解決の正しさは学生の学習と不適切に混同されることが多い。
物理学教育研究(PER)と機械学習(ML)の両方の進歩は、物理学の学生がセンスメイキングに従事しているかどうかのより有意義で効率的な測定方法を開発するための最初のツールを提供する。
本研究では,物理問題に対する解法を記述した説明書から,学生の身体感覚形成の証拠を定量化する手法を提案する。
提案手法を,言語エンコーダと共用確率分類器を用いて,デプロイ可能なMLモデルに自動生成する方法について概説する。
この手続きは、多くの問題や学生に対してスケーラブルである。
我々は,ロジスティック回帰を用いた3つのユニークな言語エンコーダを実装し,2023年のタフツ大学の入門物理学講座の実際の学生385名について,デプロイ可能性の分析を行った。
さらに,全学生を対象に,センスメイキングスコアを算出し,これらの測定結果を対応する問題解決精度とともに分析する。
これら2変数間の線形関係は見つからず、一方が他方の信頼できるプロキシではないという仮説を支持する。
本稿では,物理学の授業における学生のパフォーマンスのより微妙なスナップショットを提供するために,問題解決の精度とともに,センスメイキングスコアをどのように利用できるかについて議論する。
関連論文リスト
- LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - A Personalised Learning Tool for Physics Undergraduate Students Built On a Large Language Model for Symbolic Regression [0.6666419797034796]
インターリーブド・プラクティスは、学部生の記憶と問題解決能力を高める。
本稿では,Large Language Model(LLM)上に構築されたパーソナライズされた学習ツールについて紹介する。
論文 参考訳(メタデータ) (2024-06-17T13:43:30Z) - X-VoE: Measuring eXplanatory Violation of Expectation in Physical Events [75.94926117990435]
本研究では,AIエージェントによる直感的な物理の把握を評価するベンチマークデータセットであるX-VoEを紹介する。
X-VoEは直感的な物理モデルの説明能力を高めるためのより高いバーを確立する。
本稿では、物理力学を捉え、隠蔽対象状態を推定する説明に基づく学習システムを提案する。
論文 参考訳(メタデータ) (2023-08-21T03:28:23Z) - Physics-Based Task Generation through Causal Sequence of Physical
Interactions [3.2244944291325996]
物理的な環境でタスクを実行することは、現実世界で動作するAIシステムにとって決定的に難しい問題である。
本稿では,物体間の物理的相互作用の因果シーケンスを用いて物理シナリオを定義するための体系的なアプローチを提案する。
次に,定義したシナリオを入力として,物理シミュレーション環境でタスクを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-08-05T10:15:18Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - Symmetry Group Equivariant Architectures for Physics [52.784926970374556]
機械学習の分野では、対称性に対する認識が目覚ましいパフォーマンスのブレークスルーを引き起こしている。
物理学のコミュニティと、より広い機械学習のコミュニティの両方に、理解すべきことがたくさんある、と私たちは主張する。
論文 参考訳(メタデータ) (2022-03-11T18:27:04Z) - Physics-informed Reinforcement Learning for Perception and Reasoning
about Fluids [0.0]
本研究では,流体知覚と観測からの推論のための物理インフォームド強化学習戦略を提案する。
本研究では,コモディティカメラで自由表面を観察した未確認液体の追跡(知覚)と解析(推論)を行う手法を開発した。
論文 参考訳(メタデータ) (2022-03-11T07:01:23Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Jointly Modeling Heterogeneous Student Behaviors and Interactions Among
Multiple Prediction Tasks [35.15654921278549]
学生の予測課題は学生と大学生の両方にとって実用的な意味を持つ。
本稿では,不均一な振る舞いをモデル化し,複数の予測を行う。
大学から収集した実世界のデータセットに基づいて,モチベーション行動予測タスクを3つ設計する。
論文 参考訳(メタデータ) (2021-03-25T02:01:58Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。