論文の概要: Sparse Binary Representation Learning for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2501.09893v1
- Date: Fri, 17 Jan 2025 00:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:59:20.074868
- Title: Sparse Binary Representation Learning for Knowledge Tracing
- Title(参考訳): 知識追跡のためのスパースバイナリ表現学習
- Authors: Yahya Badran, Christine Preisach,
- Abstract要約: 知識追跡モデル(KT)は、学生の過去の相互作用に基づいて将来のパフォーマンスを予測することを目的としている。
既存のKTモデルは、エクササイズに関連する人間定義の知識概念にのみ依存している。
KT モデル SBRKT (Sparse Binary Representation KT) を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Knowledge tracing (KT) models aim to predict students' future performance based on their historical interactions. Most existing KT models rely exclusively on human-defined knowledge concepts (KCs) associated with exercises. As a result, the effectiveness of these models is highly dependent on the quality and completeness of the predefined KCs. Human errors in labeling and the cost of covering all potential underlying KCs can limit model performance. In this paper, we propose a KT model, Sparse Binary Representation KT (SBRKT), that generates new KC labels, referred to as auxiliary KCs, which can augment the predefined KCs to address the limitations of relying solely on human-defined KCs. These are learned through a binary vector representation, where each bit indicates the presence (one) or absence (zero) of an auxiliary KC. The resulting discrete representation allows these auxiliary KCs to be utilized in training any KT model that incorporates KCs. Unlike pre-trained dense embeddings, which are limited to models designed to accept such vectors, our discrete representations are compatible with both classical models, such as Bayesian Knowledge Tracing (BKT), and modern deep learning approaches. To generate this discrete representation, SBRKT employs a binarization method that learns a sparse representation, fully trainable via stochastic gradient descent. Additionally, SBRKT incorporates a recurrent neural network (RNN) to capture temporal dynamics and predict future student responses by effectively combining the auxiliary and predefined KCs. Experimental results demonstrate that SBRKT outperforms the tested baselines on several datasets and achieves competitive performance on others. Furthermore, incorporating the learned auxiliary KCs consistently enhances the performance of BKT across all tested datasets.
- Abstract(参考訳): 知識追跡モデル(KT)は、学生の過去の相互作用に基づいて将来のパフォーマンスを予測することを目的としている。
既存のKTモデルは、エクササイズに関連する人間定義知識概念(KC)にのみ依存している。
その結果、これらのモデルの有効性は、予め定義されたKCの品質と完全性に大きく依存する。
ラベル付けにおけるヒューマンエラーと、すべての潜在的なKCをカバーするコストは、モデルのパフォーマンスを制限します。
本稿では,KTモデルであるSBRKT(Sparse Binary Representation KT)を提案する。これは,人間の定義したKCにのみ依存する制限に対処するために,予め定義されたKCを拡張できる補助的なKC(Assistant KCs)と呼ばれる新しいKCラベルを生成する。
これらは二進ベクトル表現を通じて学習され、各ビットは補助KCの存在(1)または欠(0)を示す。
結果として生成された離散表現により、これらの補助的なKCは、KCを組み込んだ任意のKTモデルのトレーニングに利用することができる。
このようなベクトルを受け入れるために設計されたモデルに限られる事前訓練された密埋め込みとは異なり、我々の離散表現はベイズ的知識追跡(BKT)や現代のディープラーニングアプローチのような古典的なモデルと互換性がある。
この離散表現を生成するために、SBRKTは二項化法を用いてスパース表現を学習し、確率勾配降下により完全に訓練できる。
さらに、SBRKTはリカレントニューラルネットワーク(RNN)を導入し、補助的および事前定義されたKCを効果的に組み合わせることで、時間的ダイナミクスを捉え、将来の学生の反応を予測する。
実験の結果、SBRKTはいくつかのデータセットで試験されたベースラインよりも優れており、他のデータセットでは競合性能が達成されている。
さらに、学習した補助的なKCを組み込むことで、テストされたすべてのデータセットにおけるBKTのパフォーマンスが一貫して向上する。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Improving Low-Resource Knowledge Tracing Tasks by Supervised Pre-training and Importance Mechanism Fine-tuning [25.566963415155325]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Foundational Models for Continual Learning: An Empirical Study of Latent
Replay [17.322679682451597]
本稿では,下流の連続学習シナリオの基礎として,事前学習型視覚モデルの有効性について検討する。
大規模ベンチマークシナリオにおける各種事前学習モデルの有効性を,潜時および生データ空間におけるバニラ再生設定と比較した。
論文 参考訳(メタデータ) (2022-04-30T19:11:37Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - Enhancing Knowledge Tracing via Adversarial Training [5.461665809706664]
本研究では,学生の知識習得を時間とともに追跡することを目的とした知識追跡問題(KT)について検討する。
KTの最近の進歩は、KTの性能を改善するためにディープニューラルネットワーク(DNN)の探索に集中している。
我々は,効率的なATベースKT法(ATKT)を提案し,KTモデルの一般化を強化し,KTの限界を推し進める。
論文 参考訳(メタデータ) (2021-08-10T03:35:13Z) - BKT-LSTM: Efficient Student Modeling for knowledge tracing and student
performance prediction [0.24366811507669117]
BKT-LSTMと呼ばれる効率的な学生モデルを提案する。
bktによって評価された個々のtextitskill mastery、k-meansクラスタリングとtextitproblemの難易度によって検出されるtextitability profile(スキル間の学習転送)である。
論文 参考訳(メタデータ) (2020-12-22T18:05:36Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。