論文の概要: Personalized Distractor Generation via MCTS-Guided Reasoning Reconstruction
- arxiv url: http://arxiv.org/abs/2508.11184v1
- Date: Fri, 15 Aug 2025 03:20:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.727433
- Title: Personalized Distractor Generation via MCTS-Guided Reasoning Reconstruction
- Title(参考訳): MCTS誘導推論再構成によるパーソナライズドディトラクタ生成
- Authors: Tao Wu, Jingyuan Chen, Wang Lin, Jian Zhan, Mengze Li, Kun Kuang, Fei Wu,
- Abstract要約: 複数選択質問(MCQ)における不正確な答えの選択は、学生の誤解を診断し、教育評価において重要な役割を担っている。
最近の研究は、大きな言語モデル(LLM)を活用して、グループレベルの共有障害を生成する。
本稿では,各学生の過去の質問回答(QA)記録から推定される個人的誤解に基づいて,パーソナライズされたトラクタ生成の課題を紹介する。
- 参考スコア(独自算出の注目度): 33.217474795590576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distractors, incorrect but plausible answer choices in multiple-choice questions (MCQs), play a critical role in educational assessment by diagnosing student misconceptions. Recent work has leveraged large language models (LLMs) to generate shared, group-level distractors by learning common error patterns across large student populations. However, such distractors often fail to capture the diverse reasoning errors of individual students, limiting their diagnostic effectiveness. To address this limitation, we introduce the task of personalized distractor generation, which aims to generate tailored distractors based on individual misconceptions inferred from each student's past question-answering (QA) records, ensuring every student receives options that effectively exposes their specific reasoning errors. While promising, this task is challenging because each student typically has only a few QA records, which often lack the student's underlying reasoning processes, making training-based group-level approaches infeasible. To overcome this, we propose a training-free two-stage framework. In the first stage, we construct a student-specific misconception prototype by applying Monte Carlo Tree Search (MCTS) to recover the student's reasoning trajectories from past incorrect answers. In the second stage, this prototype guides the simulation of the student's reasoning on new questions, enabling the generation of personalized distractors that align with the student's recurring misconceptions. Experiments show that our approach achieves the best performance in generating plausible, personalized distractors for 140 students, and also effectively generalizes to group-level settings, highlighting its robustness and adaptability.
- Abstract(参考訳): マルチチョイス質問(MCQ)における不正確な答えの選択は、学生の誤解を診断し、教育評価において重要な役割を担っている。
最近の研究は、大規模な言語モデル(LLM)を活用して、大人数の学生の間で共通のエラーパターンを学習することで、共有されたグループレベルのイントラクタを生成する。
しかし、このような注意散らしは、個々の学生の多様な推論誤差を捉えず、診断の有効性を制限していることが多い。
この制限に対処するために,各学生の過去の質問回答(QA)記録から推測される個別の誤解に基づいて,個別の注意喚起者を生成することを目的とした,パーソナライズされた気晴らし者生成のタスクを導入する。
この課題は有望である一方で、各学生がいくつかのQA記録しか持たず、しばしば学生の根底にある推論プロセスを欠いているため、トレーニングベースのグループレベルのアプローチは実現不可能である。
これを解決するために、トレーニングフリーの2段階フレームワークを提案する。
第1段階では,モンテカルロ木探索(MCTS)を用いて,過去の誤った回答から学生の推論軌道を復元し,学生固有の誤解のプロトタイプを構築した。
第2段階では、このプロトタイプは、新しい質問に対する学生の推論のシミュレーションをガイドし、学生の繰り返し起こる誤解に合わせたパーソナライズされたインタラプタの生成を可能にする。
実験の結果,本手法は,140名の生徒に対して,高機能でパーソナライズされた気晴らし器を生成する上で最高の性能を示し,グループレベルの設定を効果的に一般化し,その堅牢性と適応性を強調した。
関連論文リスト
- The Imitation Game for Educational AI [23.71250100390303]
本稿では,2相チューリング様試験に基づく新しい評価フレームワークを提案する。
フェーズ1では、学生は質問に対するオープンな回答を提供し、自然な誤解を明らかにします。
フェーズ2では、AIと人間の専門家の両方が、各学生の特定のミスを条件に、新しい関連する質問に気を散らす。
論文 参考訳(メタデータ) (2025-02-21T01:14:55Z) - Generating Plausible Distractors for Multiple-Choice Questions via Student Choice Prediction [1.9949730506194254]
教育における多重選択質問(MCQ)の設計において、学生の誤解と知識のギャップを識別するためには、妥当な気晴らし器の作成が不可欠である。
本研究は,学生が選択する可能性がより高い気晴らし器を生成するモデルを訓練するためのパイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-21T10:20:39Z) - SuperCorrect: Advancing Small LLM Reasoning with Thought Template Distillation and Self-Correction [89.56181323849512]
SuperCorrectは、大きな教師モデルを使用して、より小さな学生モデルの推論と反映の両方を監督し、修正する新しい2段階のフレームワークである。
第1段階では、教師モデルから階層的な高レベルかつ詳細な思考テンプレートを抽出し、よりきめ細かい推論思考を導き出す学生モデルを指導する。
第2段階では、学生モデルの自己補正能力を高めるために、クロスモデル協調直接選好最適化(DPO)を導入する。
論文 参考訳(メタデータ) (2024-10-11T17:25:52Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - Co-Supervised Learning: Improving Weak-to-Strong Generalization with
Hierarchical Mixture of Experts [81.37287967870589]
我々は,一貫した生徒を統括する,一貫した一貫した教師ではなく,多様な専門教師の集合を活用することを提案する。
我々のアプローチは、古典的な階層的な専門家の混合に似ている。
提案手法は,OpenAIの弱強ベンチマークと追加のマルチドメインデータセットを用いて,視覚認識タスクにより検証する。
論文 参考訳(メタデータ) (2024-02-23T18:56:11Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Distantly-Supervised Named Entity Recognition with Adaptive Teacher
Learning and Fine-grained Student Ensemble [56.705249154629264]
NERモデルの堅牢性を改善するために,自己学習型教員学生フレームワークを提案する。
本稿では,2つの教員ネットワークからなる適応型教員学習を提案する。
微粒な学生アンサンブルは、教師モデルの各フラグメントを、生徒の対応するフラグメントの時間移動平均で更新し、各モデルフラグメントのノイズに対する一貫した予測を強化する。
論文 参考訳(メタデータ) (2022-12-13T12:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。