論文の概要: Does Interpretability of Knowledge Tracing Models Support Teacher Decision Making?
- arxiv url: http://arxiv.org/abs/2511.02718v1
- Date: Tue, 04 Nov 2025 16:40:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.112368
- Title: Does Interpretability of Knowledge Tracing Models Support Teacher Decision Making?
- Title(参考訳): 知識追跡モデルの解釈可能性は教師の意思決定を支援するか?
- Authors: Adia Khalid, Alina Deriyeva, Benjamin Paassen,
- Abstract要約: 解釈不能なKTモデルに基づく決定は、非解釈不能なモデルに基づく決定よりも早く習得できることを示す。
教師は、ユーザビリティと信頼性の観点から解釈可能なKTモデルを高く評価する。
これは、モデル解釈可能性と教師の判断の関係は単純ではないことを示唆している。
- 参考スコア(独自算出の注目度): 1.3775008990177111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) models are a crucial basis for pedagogical decision-making, namely which task to select next for a learner and when to stop teaching a particular skill. Given the high stakes of pedagogical decisions, KT models are typically required to be interpretable, in the sense that they should implement an explicit model of human learning and provide explicit estimates of learners' abilities. However, to our knowledge, no study to date has investigated whether the interpretability of KT models actually helps human teachers to make teaching decisions. We address this gap. First, we perform a simulation study to show that, indeed, decisions based on interpretable KT models achieve mastery faster compared to decisions based on a non-interpretable model. Second, we repeat the study but ask $N=12$ human teachers to make the teaching decisions based on the information provided by KT models. As expected, teachers rate interpretable KT models higher in terms of usability and trustworthiness. However, the number of tasks needed until mastery hardly differs between KT models. This suggests that the relationship between model interpretability and teacher decisions is not straightforward: teachers do not solely rely on KT models to make decisions and further research is needed to investigate how learners and teachers actually understand and use KT models.
- Abstract(参考訳): 知識追跡(KT)モデルは、学習者に対して次にどのタスクを選択し、いつ特定のスキルを教えるのをやめるかという、教育的意思決定の重要な基盤である。
教育的決定の高みを考えると、KTモデルは人間の学習の明示的なモデルを実装し、学習者の能力の明示的な推定を提供するという意味で、解釈可能であることが要求される。
しかし、我々の知る限り、KTモデルの解釈可能性が実際に人間の教師が指導決定を下すのに役立つかどうかについては、これまで研究されていない。
私たちはこのギャップに対処する。
まず,解釈可能なKTモデルに基づく決定が,非解釈可能なモデルに基づく決定よりも高速に習得できることを示すシミュレーション研究を行う。
第二に、本研究を繰り返すが、KTモデルが提供する情報に基づいて教育決定を行うために、N=12ドルの人間教師に依頼する。
予想通り、教師はユーザビリティと信頼性の観点から解釈可能なKTモデルを高く評価する。
しかし、習得に必要なタスクの数はKTモデルとほとんど変わらない。
このことは、モデル解釈可能性と教師の判断の関係が簡単ではないことを示唆している。教師は意思決定のためにKTモデルのみに頼るのではなく、学習者と教師が実際にKTモデルを理解して利用する方法について研究する必要がある。
関連論文リスト
- Speculative Knowledge Distillation: Bridging the Teacher-Student Gap Through Interleaved Sampling [81.00825302340984]
本研究では,高品質なトレーニングデータを生成するために,投機的知識蒸留(SKD)を導入する。
SKDでは、学生はトークンを提案し、教師はそれ自身の分布に基づいて低いランクのトークンを置き換える。
翻訳,要約,数学,指示文など,各種テキスト生成タスクにおけるSKDの評価を行った。
論文 参考訳(メタデータ) (2024-10-15T06:51:25Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - Comparative Knowledge Distillation [102.35425896967791]
伝統的な知識蒸留(KD)は、頻繁な推論のために教師モデルに容易にアクセスできることを前提としている。
本稿では,教師モデルにおけるサンプルの解釈の微妙な違いを学生モデルに理解させるための比較知識蒸留(CKD)を提案する。
CKDは、アートデータ拡張とKDテクニックの状態を一貫して上回る。
論文 参考訳(メタデータ) (2023-11-03T21:55:33Z) - Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge
Distillation [70.92135839545314]
本研究では,教師の持つ特徴の一部を,特徴蒸留前の先行知識として統合した動的事前知識(DPK)を提案する。
DPKは,教員モデルと生徒モデルのパフォーマンスを正に相関させ,より大きな教員を適用することで生徒の精度をさらに高めることができる。
論文 参考訳(メタデータ) (2022-06-13T11:52:13Z) - Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations [21.74631969428855]
解釈可能な知識追跡(英: Interpretable Knowledge Tracing, IKT)は、3つの有意義な潜在機能に依存する単純なモデルである。
IKTの将来の学生成績予測は、Tree-Augmented Naive Bayes (TAN) を用いて行われる。
IKTは、現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-12-15T19:05:48Z) - Teachers' perspective on fostering computational thinking through
educational robotics [0.6410282200111983]
創造的問題解決モデル(CCPS)は、教育ロボティクス学習活動の設計を改善するために用いられる。
本研究の目的は,教師によるモデルの有効性を検証することである。
教師は、CCPSモデルはスキルを育成するのに有用であるが、特定の介入方法がCT関連認知過程に与える影響を認識できなかった。
論文 参考訳(メタデータ) (2021-05-11T12:31:44Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。