論文の概要: Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations
- arxiv url: http://arxiv.org/abs/2112.11209v1
- Date: Wed, 15 Dec 2021 19:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 12:45:26.612779
- Title: Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations
- Title(参考訳): 解釈可能な知識のトレース:因果関係を持つ単純で効率的な学生モデル
- Authors: Sein Minn, Jill-Jenn Vie, Koh Takeuchi, Hisashi Kashima, Feida Zhu
- Abstract要約: 解釈可能な知識追跡(英: Interpretable Knowledge Tracing, IKT)は、3つの有意義な潜在機能に依存する単純なモデルである。
IKTの将来の学生成績予測は、Tree-Augmented Naive Bayes (TAN) を用いて行われる。
IKTは、現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
- 参考スコア(独自算出の注目度): 21.74631969428855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent Tutoring Systems have become critically important in future
learning environments. Knowledge Tracing (KT) is a crucial part of that system.
It is about inferring the skill mastery of students and predicting their
performance to adjust the curriculum accordingly. Deep Learning-based KT models
have shown significant predictive performance compared with traditional models.
However, it is difficult to extract psychologically meaningful explanations
from the tens of thousands of parameters in neural networks, that would relate
to cognitive theory. There are several ways to achieve high accuracy in student
performance prediction but diagnostic and prognostic reasoning is more critical
in learning sciences. Since KT problem has few observable features (problem ID
and student's correctness at each practice), we extract meaningful latent
features from students' response data by using machine learning and data mining
techniques. In this work, we present Interpretable Knowledge Tracing (IKT), a
simple model that relies on three meaningful latent features: individual skill
mastery, ability profile (learning transfer across skills), and problem
difficulty. IKT's prediction of future student performance is made using a
Tree-Augmented Naive Bayes Classifier (TAN), therefore its predictions are
easier to explain than deep learning-based student models. IKT also shows
better student performance prediction than deep learning-based student models
without requiring a huge amount of parameters. We conduct ablation studies on
each feature to examine their contribution to student performance prediction.
Thus, IKT has great potential for providing adaptive and personalized
instructions with causal reasoning in real-world educational systems.
- Abstract(参考訳): 知能学習システムは、将来の学習環境において極めて重要になっている。
知識追跡(KT)はそのシステムの重要な部分です。
生徒の熟練度を推定し、成績を予測してカリキュラムを調整することである。
ディープラーニングベースのKTモデルは、従来のモデルと比較して大きな予測性能を示している。
しかし、認知理論に関連する数万のパラメータから心理的に有意義な説明を抽出することは困難である。
学生のパフォーマンス予測において高い精度を達成する方法はいくつかあるが、診断と予測の推論は学習科学においてより重要である。
kt問題には観察可能な特徴がほとんどないため,機械学習とデータマイニング手法を用いて,学生の反応データから有意義な潜伏特徴を抽出する。
本研究では,スキル習得,能力プロファイル(スキル間での学習),難易度という,3つの有意義な潜在機能に依存するシンプルなモデルである解釈可能な知識追跡(IKT)を提案する。
iktの将来の学生成績予測は、木製ナイーブベイズ分類器(tan)を用いて行われるため、深層学習に基づく学習モデルよりも容易に説明できる。
IKTはまた、大量のパラメータを必要とすることなく、ディープラーニングベースの学生モデルよりも優れた生徒パフォーマンス予測を示す。
学生のパフォーマンス予測への貢献を検討するために,各特徴についてアブレーション研究を行う。
このように、IKTは現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
関連論文リスト
- Personalized Knowledge Tracing through Student Representation Reconstruction and Class Imbalance Mitigation [32.52262417461651]
知識追跡とは、学習過程を分析することによって、学生の将来のパフォーマンスを予測する手法である。
近年の研究は、強力なディープニューラルネットワークを活用することで大きな進歩を遂げている。
パーソナライズされた知識追跡のための新しいアプローチであるPKTを提案する。
論文 参考訳(メタデータ) (2024-09-10T07:02:46Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Leveraging Pedagogical Theories to Understand Student Learning Process with Graph-based Reasonable Knowledge Tracing [11.082908318943248]
本稿では,これらの問題に対処するためのグラフベースの合理的知識追跡手法GRKTを紹介する。
本稿では,知識検索,記憶強化,知識学習・鍛造の3段階モデリングプロセスを提案する。
論文 参考訳(メタデータ) (2024-06-07T10:14:30Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - Enhancing Deep Knowledge Tracing with Auxiliary Tasks [24.780533765606922]
本稿では,emphAT-DKTによる知識追跡モデルの予測性能の向上について述べる。
実世界の3つの教育データセットに関する総合的な実験を行い、提案手法を深部逐次KTモデルと非逐次モデルの両方と比較する。
論文 参考訳(メタデータ) (2023-02-14T08:21:37Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Directed Acyclic Graph Factorization Machines for CTR Prediction via
Knowledge Distillation [65.62538699160085]
本稿では,既存の複雑な相互作用モデルから,知識蒸留によるCTR予測のための高次特徴相互作用を学習するための非巡回グラフファクトリゼーションマシン(KD-DAGFM)を提案する。
KD-DAGFMは、オンラインとオフラインの両方の実験において、最先端のFLOPの21.5%未満で最高の性能を達成する。
論文 参考訳(メタデータ) (2022-11-21T03:09:42Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - BKT-LSTM: Efficient Student Modeling for knowledge tracing and student
performance prediction [0.24366811507669117]
BKT-LSTMと呼ばれる効率的な学生モデルを提案する。
bktによって評価された個々のtextitskill mastery、k-meansクラスタリングとtextitproblemの難易度によって検出されるtextitability profile(スキル間の学習転送)である。
論文 参考訳(メタデータ) (2020-12-22T18:05:36Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。