論文の概要: McMining: Automated Discovery of Misconceptions in Student Code
- arxiv url: http://arxiv.org/abs/2510.08827v1
- Date: Thu, 09 Oct 2025 21:27:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.799062
- Title: McMining: Automated Discovery of Misconceptions in Student Code
- Title(参考訳): McMining: 学生コードにおける誤解の自動発見
- Authors: Erfan Al-Hossami, Razvan Bunescu,
- Abstract要約: プログラミングを学ぶとき、学生は様々なプログラミング言語の概念に関する誤解をしばしば生み出す。
我々は、学生のコードのサンプルからプログラミングの誤解をマイニングするタスクであるMcMiningを紹介する。
次に、LLMに基づく2つのMcMinerアプローチを導入し、広範囲な評価を通して、Gemini、Claude、GPTファミリーのモデルが学生コードにおける誤解を発見するのに有効であることを示す。
- 参考スコア(独自算出の注目度): 0.07366405857677226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When learning to code, students often develop misconceptions about various programming language concepts. These can not only lead to bugs or inefficient code, but also slow down the learning of related concepts. In this paper, we introduce McMining, the task of mining programming misconceptions from samples of code from a student. To enable the training and evaluation of McMining systems, we develop an extensible benchmark dataset of misconceptions together with a large set of code samples where these misconceptions are manifested. We then introduce two LLM-based McMiner approaches and through extensive evaluations show that models from the Gemini, Claude, and GPT families are effective at discovering misconceptions in student code.
- Abstract(参考訳): プログラミングを学ぶとき、学生は様々なプログラミング言語の概念に関する誤解をしばしば生み出す。
これらはバグや非効率なコードを引き起こすだけでなく、関連する概念の学習を遅らせます。
本稿では,学生のコードサンプルからプログラミングの誤解をマイニングするタスクであるMcMiningを紹介する。
我々は,McMiningシステムのトレーニングと評価を可能にするために,これらの誤解が浮かび上がる大量のコードサンプルとともに,誤認識の拡張可能なベンチマークデータセットを開発する。
次に、LLMに基づく2つのMcMinerアプローチを導入し、広範囲な評価を通して、Gemini、Claude、GPTファミリーのモデルが学生コードにおける誤解を発見するのに有効であることを示す。
関連論文リスト
- Modeling Student Learning with 3.8 Million Program Traces [52.153493498021895]
Pencil Codeのユーザによる380万を越えるプログラミング推論のデータセットを紹介します。
実際のトレースに基づいてトレーニングされたモデルは、多様な学生の振る舞いをモデル化する上で、より強力であることがわかった。
我々は、コード生成モデルを操り、より正しいコードをもたらす一連の編集を識別することで、学生がミスから回復するのを支援できることを示します。
論文 参考訳(メタデータ) (2025-10-06T17:37:17Z) - Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - Instruct, Not Assist: LLM-based Multi-Turn Planning and Hierarchical Questioning for Socratic Code Debugging [27.70379206820154]
ソクラテス質問は効果的な教育戦略であり、批判的思考と問題解決を奨励する。
TreeInstructは、学生が個別にエラーを特定し、解決するのを助けるために、探索的な質問をする。
学生の概念的・統語的知識を推定し、その反応と現在の知識状態に基づいて質問ツリーを動的に構築する。
論文 参考訳(メタデータ) (2024-06-17T16:28:21Z) - Dcc --help: Generating Context-Aware Compiler Error Explanations with
Large Language Models [53.04357141450459]
dcc --helpはCS1とCS2のコースにデプロイされ、2565人の学生が10週間で64,000回以上このツールを使っている。
LLMが生成した説明は、コンパイル時間の90%と実行時の75%で概念的に正確であるが、コードに解決策を提供しない命令を無視することが多かった。
論文 参考訳(メタデータ) (2023-08-23T02:36:19Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Toward Semi-Automatic Misconception Discovery Using Code Embeddings [4.369757255496184]
本論文では,計算コースにおける生徒のプログラムコードから問題特異的な誤解を半自動的に発見する手法を提案する。
ブロックベースのプログラミングデータセットでモデルをトレーニングし、学習した埋め込みをクラスタの不正な学生の応募に使用しました。
論文 参考訳(メタデータ) (2021-03-07T20:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。