論文の概要: Deep Knowledge Tracing with Learning Curves
- arxiv url: http://arxiv.org/abs/2008.01169v2
- Date: Thu, 14 Oct 2021 14:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 19:44:23.191296
- Title: Deep Knowledge Tracing with Learning Curves
- Title(参考訳): 学習曲線を用いた深い知識追跡
- Authors: Shanghui Yang, Mengxia Zhu, Xuesong Lu
- Abstract要約: 本稿では,進化的知識追跡(CAKT)モデルを提案する。
このモデルは、3次元畳み込みニューラルネットワークを用いて、次の質問で同じ知識の概念を適用した学生の最近の経験を明示的に学習する。
CAKTは,既存のモデルと比較して,生徒の反応を予測する上で,最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 0.9088303226909278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) has recently been an active research area of
computational pedagogy. The task is to model students' mastery level of
knowledge concepts based on their responses to the questions in the past, as
well as predict the probabilities that they correctly answer subsequent
questions in the future. KT tasks were historically solved using statistical
modeling methods such as Bayesian inference and factor analysis, but recent
advances in deep learning have led to the successive proposals that leverage
deep neural networks, including long short-term memory networks,
memory-augmented networks and self-attention networks. While those deep models
demonstrate superior performance over the traditional approaches, they all
neglect the explicit modeling of the learning curve theory, which generally
says that more practice on the same knowledge concept enhances one's mastery
level of the concept. Based on this theory, we propose a Convolution-Augmented
Knowledge Tracing (CAKT) model in this paper. The model employs
three-dimensional convolutional neural networks to explicitly learn a student's
recent experience on applying the same knowledge concept with that in the next
question, and fuses the learnt feature with the feature representing her
overall latent knowledge state obtained using a classic LSTM network. The fused
feature is then fed into a second LSTM network to predict the student's
response to the next question. Experimental results show that CAKT achieves the
new state-of-the-art performance in predicting students' responses compared
with existing models. We also conduct extensive sensitivity analysis and
ablation study to show the stability of the results and justify the particular
architecture of CAKT, respectively.
- Abstract(参考訳): 知識追跡(KT)は近年,計算教育の活発な研究領域となっている。
課題は,過去の質問に対する回答に基づいて,学生の知識概念の熟達レベルをモデル化し,今後の質問に正しく答えられる確率を予測することである。
KTタスクは歴史的にベイズ推定や因子分析などの統計的モデリング手法を用いて解決されてきたが、近年のディープラーニングの進歩により、長い短期記憶ネットワーク、メモリ拡張ネットワーク、自己認識ネットワークなど、ディープニューラルネットワークを活用する一連の提案につながっている。
これらの深いモデルは従来のアプローチよりも優れたパフォーマンスを示しているが、学習曲線理論の明示的なモデリングは無視している。
本稿では,この理論に基づいて,進化型知識追跡(CAKT)モデルを提案する。
このモデルでは、3次元畳み込みニューラルネットワークを用いて、次の質問で同じ知識概念を適用した学生の最近の経験を明示的に学習し、学習した特徴を古典的なLSTMネットワークを用いて得られた全体的な潜在知識状態を表す特徴と融合する。
次に、融合した特徴を第二のLSTMネットワークに入力し、次の質問に対する生徒の反応を予測する。
実験結果から,CAKTは既存のモデルと比較して,生徒の反応を予測する上で,新たな最先端性能を実現することが示された。
また,CAKTの安定性とアーキテクチャの正当性を示すために,広範囲な感度解析およびアブレーション研究を行った。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - IF2Net: Innately Forgetting-Free Networks for Continual Learning [49.57495829364827]
継続的な学習は、以前に学んだ知識に干渉することなく、新しい概念を漸進的に吸収することができる。
ニューラルネットワークの特性に触発され,本研究は,IF2Net(Innately Forgetting-free Network)の設計方法について検討した。
IF2Netは、1つのネットワークがテスト時にタスクのIDを告げることなく、本質的に無制限のマッピングルールを学習することを可能にする。
論文 参考訳(メタデータ) (2023-06-18T05:26:49Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing [5.648636668261282]
本稿では,新しい知識追跡モデル,すなわちemphDeep Graph Memory Network(DGMN)を提案する。
このモデルでは、忘れる動作を捉えるために、注意記憶構造に忘れるゲーティング機構を組み込む。
このモデルは動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
論文 参考訳(メタデータ) (2021-08-18T12:04:10Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - On the Interpretability of Deep Learning Based Models for Knowledge
Tracing [5.120837730908589]
知識追跡により、Intelligent Tutoring Systemsは、学生が習得したトピックやスキルを推測することができる。
Deep Knowledge Tracing(DKT)やDynamic Key-Value Memory Network(DKVMN)といったディープラーニングベースのモデルは、大幅に改善されている。
しかし、これらのディープラーニングベースのモデルは、ディープニューラルネットワークによって学習される意思決定プロセスが完全には理解されていないため、他のモデルほど解釈できない。
論文 参考訳(メタデータ) (2021-01-27T11:55:03Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。