論文の概要: Can LLMs Model Incorrect Student Reasoning? A Case Study on Distractor Generation
- arxiv url: http://arxiv.org/abs/2603.15547v1
- Date: Mon, 16 Mar 2026 17:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.678933
- Title: Can LLMs Model Incorrect Student Reasoning? A Case Study on Distractor Generation
- Title(参考訳): LLMは不正確な学生共振をモデル化できるか? : ディトラクタ生成を事例として
- Authors: Yanick Zengaffinen, Andreas Opedal, Donya Rooein, Kv Aditya Srivatsa, Shashank Sonkar, Mrinmaya Sachan,
- Abstract要約: 本研究は,大規模言語モデル (LLM) が複数選択の散逸を発生させる際の誤解に対する理由について検討する。
私たちの構造化分析は、彼らのプロセスとベストプラクティスの驚くほどの一致を明らかにします。
- 参考スコア(独自算出の注目度): 46.210941814500906
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modeling plausible student misconceptions is critical for AI in education. In this work, we examine how large language models (LLMs) reason about misconceptions when generating multiple-choice distractors, a task that requires modeling incorrect yet plausible answers by coordinating solution knowledge, simulating student misconceptions, and evaluating plausibility. We introduce a taxonomy for analyzing the strategies used by state-of-the-art LLMs, examining their reasoning procedures and comparing them to established best practices in the learning sciences. Our structured analysis reveals a surprising alignment between their processes and best practices: the models typically solve the problem correctly first, then articulate and simulate multiple potential misconceptions, and finally select a set of distractors. An analysis of failure modes reveals that errors arise primarily from failures in recovering the correct solution and selecting among response candidates, rather than simulating errors or structuring the process. Consistent with these results, we find that providing the correct solution in the prompt improves alignment with human-authored distractors by 8%, highlighting the critical role of anchoring to the correct solution when generating plausible incorrect student reasoning. Overall, our analysis offers a structured and interpretable lens into LLMs' ability to model incorrect student reasoning and produce high-quality distractors.
- Abstract(参考訳): もっともらしい学生の誤解をモデル化することは、教育におけるAIにとって重要である。
本研究は,大規模言語モデル (LLM) が,複数選択の散逸を発生させる際の誤解に対する理由について検討し,解法知識の調整,学生の誤解のシミュレーション,妥当性の評価などによって,不正確かつ妥当な回答をモデル化する必要がある課題について考察する。
本稿では,最先端のLLMが使用する戦略を分析し,それらの推論手順を調べ,学習科学の確立したベストプラクティスと比較するための分類法を提案する。
モデルは通常、まず最初に問題を正しく解き、次に複数の潜在的な誤解を明瞭化し、シミュレートし、最後に注意をそらすものを選びます。
障害モードの分析によると、エラーは、エラーをシミュレートしたり、プロセスを構成するのではなく、正しいソリューションを回復し、応答候補の中から選択する際の失敗から発生する。
これらの結果と一致して, 正しい解法を提供することで, 正しい解を導き出すことで, 正しい解に固執する重要な役割を浮き彫りにする。
我々の分析は、構造化され解釈可能なレンズをLLMに提供し、不正確な学生推論をモデル化し、高品質なイントラクタを生成する。
関連論文リスト
- Learning to Make MISTAKEs: Modeling Incorrect Student Thinking And Key Errors [58.65143578052761]
本稿では,推論誤りの高品質な合成例を構成する新しい手法であるMISTAKEを提案する。
3つの教育課題において,MISTAKEを評価した結果,(1)誤答のシミュレーションにおいて高い精度が得られた。
論文 参考訳(メタデータ) (2025-10-13T15:10:38Z) - Improving Rationality in the Reasoning Process of Language Models through Self-playing Game [25.193698725021108]
証明者が最初に与えられた問題に対する解を提供し、その後、その解に対する批判によって挑戦される、批判認識ゲーム(CDG)を設計する。
証明者の目的は、誤解を招くコメントに直面しながら、建設的なフィードバックに対する誤りを修正しながら正しい回答を維持することである。
数学的推論,ステップワイドな誤り検出,自己補正,長鎖推論を含む課題に関する実験により,CDGトレーニングは,その推論過程を理解するための整合性 LLM の能力を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2025-06-28T15:11:23Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。