論文の概要: BKT-LSTM: Efficient Student Modeling for knowledge tracing and student
performance prediction
- arxiv url: http://arxiv.org/abs/2012.12218v2
- Date: Wed, 6 Jan 2021 03:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:32:57.301207
- Title: BKT-LSTM: Efficient Student Modeling for knowledge tracing and student
performance prediction
- Title(参考訳): BKT-LSTM:知識追跡と学生のパフォーマンス予測のための効率的な学生モデリング
- Authors: Sein Minn
- Abstract要約: BKT-LSTMと呼ばれる効率的な学生モデルを提案する。
bktによって評価された個々のtextitskill mastery、k-meansクラスタリングとtextitproblemの難易度によって検出されるtextitability profile(スキル間の学習転送)である。
- 参考スコア(独自算出の注目度): 0.24366811507669117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, we have seen a rapid rise in usage of online educational platforms.
The personalized education became crucially important in future learning
environments. Knowledge tracing (KT) refers to the detection of students'
knowledge states and predict future performance given their past outcomes for
providing adaptive solution to Intelligent Tutoring Systems (ITS). Bayesian
Knowledge Tracing (BKT) is a model to capture mastery level of each skill with
psychologically meaningful parameters and widely used in successful tutoring
systems. However, it is unable to detect learning transfer across skills
because each skill model is learned independently and shows lower efficiency in
student performance prediction. While recent KT models based on deep neural
networks shows impressive predictive power but it came with a price. Ten of
thousands of parameters in neural networks are unable to provide
psychologically meaningful interpretation that reflect to cognitive theory. In
this paper, we proposed an efficient student model called BKT-LSTM. It contains
three meaningful components: individual \textit{skill mastery} assessed by BKT,
\textit{ability profile} (learning transfer across skills) detected by k-means
clustering and \textit{problem difficulty}. All these components are taken into
account in student's future performance prediction by leveraging predictive
power of LSTM. BKT-LSTM outperforms state-of-the-art student models in
student's performance prediction by considering these meaningful features
instead of using binary values of student's past interaction in DKT. We also
conduct ablation studies on each of BKT-LSTM model components to examine their
value and each component shows significant contribution in student's
performance prediction. Thus, it has potential for providing adaptive and
personalized instruction in real-world educational systems.
- Abstract(参考訳): 近年,オンライン教育プラットフォームの利用が急速に増加している。
パーソナライズされた教育は、将来の学習環境において極めて重要になった。
知識追跡(KT)とは、知的学習システム(ITS)に適応的なソリューションを提供するために、過去の成果から学生の知識状態を検出し、将来のパフォーマンスを予測することを指す。
ベイズ知識追跡(英: Bayesian Knowledge Tracing、BKT)は、心理学的に意味のあるパラメータで各スキルの熟達レベルを捉え、学習システムの成功に広く利用されているモデルである。
しかし、各スキルモデルが独立して学習され、学生のパフォーマンス予測の効率が低いため、スキル間の学習伝達を検出することができない。
ディープニューラルネットワークに基づく最近のKTモデルは、驚くべき予測力を示しているが、価格がついた。
ニューラルネットワークの10万のパラメータは、認知理論を反映した心理的に意味のある解釈を提供することができない。
本稿では,BKT-LSTMと呼ばれる効率的な学生モデルを提案する。
bktで評価された個々の \textit{skill mastery}、k-meansクラスタリングで検出される \textit{ability profile} (スキル間の学習転送)、および \textit{problem difficulty} である。
これらの要素はすべて,LSTMの予測能力を活用することによって,学生の今後のパフォーマンス予測に考慮される。
BKT-LSTMは、DKTにおける過去のインタラクションのバイナリ値ではなく、これらの有意義な特徴を考慮し、学生のパフォーマンス予測における最先端の学生モデルよりも優れている。
また,BKT-LSTMモデルの各コンポーネントのアブレーション調査を行い,各コンポーネントが学生のパフォーマンス予測に大きく貢献することを示した。
したがって、現実世界の教育システムにおいて適応的でパーソナライズされた指導を提供する可能性がある。
関連論文リスト
- Personalized Knowledge Tracing through Student Representation Reconstruction and Class Imbalance Mitigation [32.52262417461651]
知識追跡とは、学習過程を分析することによって、学生の将来のパフォーマンスを予測する手法である。
近年の研究は、強力なディープニューラルネットワークを活用することで大きな進歩を遂げている。
パーソナライズされた知識追跡のための新しいアプローチであるPKTを提案する。
論文 参考訳(メタデータ) (2024-09-10T07:02:46Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - What Makes CLIP More Robust to Long-Tailed Pre-Training Data? A Controlled Study for Transferable Insights [67.72413262980272]
大規模なデータ不均衡は、Webスケールの視覚言語データセットの間に自然に存在する。
事前学習したCLIPは、教師付き学習と比較してデータ不均衡に顕著な堅牢性を示す。
CLIPの堅牢性と差別性は、より記述的な言語監督、より大きなデータスケール、より広いオープンワールドの概念によって改善される。
論文 参考訳(メタデータ) (2024-05-31T17:57:24Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - DKT-STDRL: Spatial and Temporal Representation Learning Enhanced Deep
Knowledge Tracing for Learning Performance Prediction [11.75131482747055]
DKT-STDRLモデルは、学生の運動シーケンスの空間的特徴情報を抽出するためにCNNを使用する。
BiLSTM部は、共同学習特徴から時間的特徴を抽出し、次のステップで学生が正しく答えるかどうかの予測情報を得る。
ASSISTment2009, ASSISTment2015, Synthetic-5, ASSISTchall, Statics 2011 の公開教育データセットの実験は、DKT-STDRLがDKTやCKTよりも優れた予測効果を達成できることを証明している。
論文 参考訳(メタデータ) (2023-02-15T09:23:21Z) - Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations [21.74631969428855]
解釈可能な知識追跡(英: Interpretable Knowledge Tracing, IKT)は、3つの有意義な潜在機能に依存する単純なモデルである。
IKTの将来の学生成績予測は、Tree-Augmented Naive Bayes (TAN) を用いて行われる。
IKTは、現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-12-15T19:05:48Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。