論文の概要: Revisiting Applicable and Comprehensive Knowledge Tracing in Large-Scale Data
- arxiv url: http://arxiv.org/abs/2501.14256v1
- Date: Fri, 24 Jan 2025 05:44:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:57:10.370423
- Title: Revisiting Applicable and Comprehensive Knowledge Tracing in Large-Scale Data
- Title(参考訳): 大規模データにおける適用性と包括的知識追跡の再検討
- Authors: Yiyun Zhou, Wenkang Han, Jingyuan Chen,
- Abstract要約: 知識追跡(KT)は知能学習システム(ITS)の基本コンポーネントである
我々は最近開発されたxLSTMアーキテクチャを利用した新しいKTモデルであるDKT2を提案する。
3つの大規模データセットにわたる大規模な実験により、DKT2は様々な予測タスクにおいて17のベースラインモデルより一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 2.979487471903892
- License:
- Abstract: Knowledge Tracing (KT) is a fundamental component of Intelligent Tutoring Systems (ITS), enabling the modeling of students' knowledge states to predict future performance. The introduction of Deep Knowledge Tracing (DKT), the first deep learning-based KT (DLKT) model, has brought significant advantages in terms of applicability and comprehensiveness. However, recent DLKT models, such as Attentive Knowledge Tracing (AKT), have often prioritized predictive performance at the expense of these benefits. While deep sequential models like DKT have shown potential, they face challenges related to parallel computing, storage decision modification, and limited storage capacity. To address these limitations, we propose DKT2, a novel KT model that leverages the recently developed xLSTM architecture. DKT2 enhances input representation using the Rasch model and incorporates Item Response Theory (IRT) for interpretability, allowing for the decomposition of learned knowledge into familiar and unfamiliar knowledge. By integrating this knowledge with predicted questions, DKT2 generates comprehensive knowledge states. Extensive experiments conducted across three large-scale datasets demonstrate that DKT2 consistently outperforms 17 baseline models in various prediction tasks, underscoring its potential for real-world educational applications. This work bridges the gap between theoretical advancements and practical implementation in KT.Our code and datasets will be available at https://github.com/codebase-2025/DKT2.
- Abstract(参考訳): KT(Knowledge Tracing)はIntelligent Tutoring Systems(ITS)の基本コンポーネントであり、学生の知識状態のモデリングにより将来のパフォーマンスを予測する。
最初のディープラーニングベースのKT(DLKT)モデルであるDeep Knowledge Tracing(DKT)の導入は、適用性と包括性において大きなメリットをもたらしている。
しかしながら、最近のDLKTモデル、例えば注意的知識追跡(AKT)は、これらの利点を犠牲にして予測性能を優先してきた。
DKTのようなディープシーケンシャルモデルは潜在的な可能性を示しているが、並列コンピューティング、ストレージ決定の修正、ストレージ容量の制限といった課題に直面している。
これらの制約に対処するため、最近開発されたxLSTMアーキテクチャを利用した新しいKTモデルであるDKT2を提案する。
DKT2は、Raschモデルを用いた入力表現を強化し、解釈可能性にIRT(Item Response Theory)を組み込むことで、学習した知識を慣れ親しんだ未知の知識に分解することができる。
この知識を予測された質問と統合することにより、DKT2は包括的な知識状態を生成する。
3つの大規模なデータセットで実施された大規模な実験により、DKT2は様々な予測タスクにおいて17のベースラインモデルより一貫して優れており、現実世界の教育応用の可能性を強調している。
我々のコードとデータセットはhttps://github.com/codebase-2025/DKT2で利用可能になる。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Improving Low-Resource Knowledge Tracing Tasks by Supervised Pre-training and Importance Mechanism Fine-tuning [25.566963415155325]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Enhancing Knowledge Tracing via Adversarial Training [5.461665809706664]
本研究では,学生の知識習得を時間とともに追跡することを目的とした知識追跡問題(KT)について検討する。
KTの最近の進歩は、KTの性能を改善するためにディープニューラルネットワーク(DNN)の探索に集中している。
我々は,効率的なATベースKT法(ATKT)を提案し,KTモデルの一般化を強化し,KTの限界を推し進める。
論文 参考訳(メタデータ) (2021-08-10T03:35:13Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - A Survey of Knowledge Tracing: Models, Variants, and Applications [70.69281873057619]
知識追跡は、学生の行動データ分析の基本的なタスクの1つである。
我々は、異なる技術経路を持つ3種類の基本KTモデルを示す。
この急速に成長する分野における今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-05-06T13:05:55Z) - On the Interpretability of Deep Learning Based Models for Knowledge
Tracing [5.120837730908589]
知識追跡により、Intelligent Tutoring Systemsは、学生が習得したトピックやスキルを推測することができる。
Deep Knowledge Tracing(DKT)やDynamic Key-Value Memory Network(DKVMN)といったディープラーニングベースのモデルは、大幅に改善されている。
しかし、これらのディープラーニングベースのモデルは、ディープニューラルネットワークによって学習される意思決定プロセスが完全には理解されていないため、他のモデルほど解釈できない。
論文 参考訳(メタデータ) (2021-01-27T11:55:03Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。