論文の概要: KeenKT: Knowledge Mastery-State Disambiguation for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2512.18709v1
- Date: Sun, 21 Dec 2025 12:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.467414
- Title: KeenKT: Knowledge Mastery-State Disambiguation for Knowledge Tracing
- Title(参考訳): KeenKT:知識追跡のための知識習得状態の曖昧さ
- Authors: Zhifei Li, Lifan Chen, Jiali Yi, Xiaoju Hou, Yue Zhao, Wenxin Huang, Miao Zhang, Kui Xiao, Bing Yang,
- Abstract要約: 我々は知識追跡モデル(KeenKT)のための知識習得状態の曖昧さを提案する。
KeenKTは、正規-逆-ガウス分布(NIG)を用いて、各相互作用における学生の知識状態を表す。
6つの公開データセットの実験により、KienKTは予測精度と行動変動に対する感度の観点からSOTA KTモデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 19.574988464365603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Tracing (KT) aims to dynamically model a student's mastery of knowledge concepts based on their historical learning interactions. Most current methods rely on single-point estimates, which cannot distinguish true ability from outburst or carelessness, creating ambiguity in judging mastery. To address this issue, we propose a Knowledge Mastery-State Disambiguation for Knowledge Tracing model (KeenKT), which represents a student's knowledge state at each interaction using a Normal-Inverse-Gaussian (NIG) distribution, thereby capturing the fluctuations in student learning behaviors. Furthermore, we design an NIG-distance-based attention mechanism to model the dynamic evolution of the knowledge state. In addition, we introduce a diffusion-based denoising reconstruction loss and a distributional contrastive learning loss to enhance the model's robustness. Extensive experiments on six public datasets demonstrate that KeenKT outperforms SOTA KT models in terms of prediction accuracy and sensitivity to behavioral fluctuations. The proposed method yields the maximum AUC improvement of 5.85% and the maximum ACC improvement of 6.89%.
- Abstract(参考訳): 知識追跡(KT)は、歴史学習の相互作用に基づいて、学生の知識概念の習得を動的にモデル化することを目的としている。
現在のほとんどの手法は単一点推定に依存しており、これは真の能力をアウトバーストや不注意から区別することができず、熟達を判断する曖昧さを生み出している。
この問題に対処するため,Narmal-Inverse-Gaussian (NIG) 分布を用いて,各インタラクションにおける学生の知識状態を表す知識習得型知識追跡モデル(KeenKT)を提案する。
さらに,知識状態の動的進化をモデル化するためのNIG依存型アテンション機構を設計する。
さらに,拡散型復調損失と分布型コントラスト学習損失を導入し,モデルのロバスト性を高める。
6つの公開データセットに対する大規模な実験により、KienKTは予測精度と行動変動に対する感度でSOTA KTモデルより優れていることが示された。
提案手法は最大AUC改善率5.85%,最大ACC改善率6.89%となる。
関連論文リスト
- Dynamic Programming Techniques for Enhancing Cognitive Representation in Knowledge Tracing [125.75923987618977]
認知表現動的プログラミングに基づく知識追跡(CRDP-KT)モデルを提案する。
質問の難易度とそれらの間の性能間隔に基づいて認知表現を最適化する動的プログラミングアルゴリズムである。
これは、その後のモデルトレーニングのためにより正確で体系的な入力機能を提供し、それによって認知状態のシミュレーションにおける歪みを最小限にする。
論文 参考訳(メタデータ) (2025-06-03T14:44:48Z) - DASKT: A Dynamic Affect Simulation Method for Knowledge Tracing [51.665582274736785]
KT(Knowledge Tracing)は,学生の履歴計算によって将来のパフォーマンスを予測し,学生の感情状態を理解することで,KTの有効性を高めることができる。
本研究では,学生の感情状態が知識状態に与える影響を調べるために,DASKT(Affect Dynamic Knowledge Tracing)を提案する。
我々の研究は、高い解釈可能性と精度の実現に焦点をあてて、今後の研究への有望な道のりを強調している。
論文 参考訳(メタデータ) (2025-01-18T10:02:10Z) - Uncertainty-aware Knowledge Tracing [2.8931305033614816]
知識追跡(KT)は、学生の学習状態を描写し、生徒の教科の熟達度を評価することに焦点を当てた教育評価において重要である。
従来の研究では、学生の知識状態を捉えるための決定論的表現が一般的であり、学生の相互作用における不確実性を無視している。
本研究では,学生間相互作用の不確実性を表すために分布埋め込みを用いた不確実性認識知識追跡モデル(UKT)を提案する。
論文 参考訳(メタデータ) (2025-01-09T18:17:27Z) - Adaptive Explicit Knowledge Transfer for Knowledge Distillation [17.739979156009696]
教師モデルから,非目標クラスの確率分布を効果的に提供することにより,ロジットに基づく知識蒸留の性能を向上させることができることを示す。
本研究では,学習者が暗黙的な知識を適応的に学習できる新たな損失を提案する。
実験結果から, 適応的明示的知識伝達法(AEKT)は, 最先端KD法と比較して性能が向上することが示された。
論文 参考訳(メタデータ) (2024-09-03T07:42:59Z) - Robustness-Reinforced Knowledge Distillation with Correlation Distance and Network Pruning [3.1423836318272773]
知識蒸留(KD)は、効率的で軽量なモデルの性能を向上させる。
既存のKD技術のほとんどは、Kulback-Leibler(KL)の発散に依存している。
相関距離とネットワークプルーニングを利用したロバストネス強化知識蒸留(R2KD)を提案する。
論文 参考訳(メタデータ) (2023-11-23T11:34:48Z) - Overcoming Generic Knowledge Loss with Selective Parameter Update [48.240683797965005]
基礎モデルを継続的に更新する新しい手法を提案する。
すべてのパラメータを均等に更新する代わりに、学習しているタスクに関連するパラメータのスパースセットにアップデートをローカライズします。
提案手法は,学習済みのタスクの精度を最大7%向上すると同時に,学習前知識を0.9%減少させることなく,代表制御セットの精度を低下させる。
論文 参考訳(メタデータ) (2023-08-23T22:55:45Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。