論文の概要: MAML-KT: Addressing Cold Start Problem in Knowledge Tracing for New Students via Few-Shot Model-Agnostic Meta Learning
- arxiv url: http://arxiv.org/abs/2603.00137v1
- Date: Tue, 24 Feb 2026 05:49:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.047219
- Title: MAML-KT: Addressing Cold Start Problem in Knowledge Tracing for New Students via Few-Shot Model-Agnostic Meta Learning
- Title(参考訳): MAML-KT:Few-Shot Model-Agnostic Meta Learningによる新入生の知識学習におけるコールドスタート問題への対応
- Authors: Indronil Bhattacharjee, Christabel Wayllace,
- Abstract要約: モデルに依存しないメタ学習手法であるMAML-KTを導入する。
MAML-KTは、ほとんど全てのコールドスタート条件において、以前のKTモデルよりも高い早期精度を達成する。
全体として、KTモデルを高速適応に最適化することで、新入生の早期予測誤差を低減できる。
- 参考スコア(独自算出の注目度): 2.8913142991383114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) models are commonly evaluated by training on early interactions from all students and testing on later responses. While effective for measuring average predictive performance, this evaluation design obscures a cold start scenario that arises in deployment, where models must infer the knowledge state of previously unseen students from only a few initial interactions. Prior studies have shown that under this setting, standard empirically risk-minimized KT models such as DKT, DKVMN and SAKT exhibit substantially lower early accuracy than previously reported. We frame new-student performance prediction as a few-shot learning problem and introduce MAML-KT, a model-agnostic meta learning approach that learns an initialization optimized for rapid adaptation to new students using one or two gradient updates. We evaluate MAML-KT on ASSIST2009, ASSIST2015 and ASSIST2017 using a controlled cold start protocol that trains on a subset of students and tests on held-out learners across early interaction windows (questions 3-10 and 11-15), scaling cohort sizes from 10 to 50 students. Across datasets, MAML-KT achieves higher early accuracy than prior KT models in nearly all cold start conditions, with gains persisting as cohort size increases. On ASSIST2017, we observe a transient drop in early performance that coincides with many students encountering previously unseen skills. Further analysis suggests that these drops coincide with skill novelty rather than model instability, consistent with prior work on skill-level cold start. Overall, optimizing KT models for rapid adaptation reduces early prediction error for new students and provides a clearer lens for interpreting early accuracy fluctuations, distinguishing model limitations from genuine learning and knowledge acquisition dynamics.
- Abstract(参考訳): 知識追跡(KT)モデルは、すべての学生からの早期インタラクションのトレーニングと、その後の反応のテストによって一般的に評価される。
平均予測性能の測定には有効であるが、この評価設計は展開時に発生するコールドスタートシナリオを曖昧にし、モデルがそれまで見られなかった学生の知識状態を少数の初期インタラクションから推測しなければならない。
以前の研究では、DKT、DKVMN、SAKTといった標準的リスク最小化KTモデルは、以前報告されたよりもかなり低い早期精度を示すことが示されている。
そこで我々は,新入生の早期適応に最適化されたモデルに依存しないメタ学習手法であるMAML-KTを導入する。
ASSIST2009, ASSIST2015, ASSIST2017におけるMAML-KTの評価は, 学生のサブセットで訓練し, 早期対話窓(3~10~11~15)をまたいで学習者の持久力テストを行い, コホートサイズを10~50名まで拡大した。
データセット全体にわたって、MAML-KTは、ほとんど全てのコールドスタート条件において、以前のKTモデルよりも早期に精度が高く、コホートサイズが増加するにつれてゲインが持続する。
ASSIST2017では、未確認のスキルに遭遇した多くの学生と一致する早期成績の急激な低下が観察された。
さらなる分析では、これらのドロップはモデル不安定性よりもスキルノベルティと一致しており、スキルレベルのコールドスタートに関する以前の作業と一致している。
全体として、迅速な適応のためにKTモデルを最適化することで、新入生の早期予測誤差を低減し、モデルの制限を真の学習と知識獲得のダイナミクスと区別し、早期精度の変動を解釈するためのより明確なレンズを提供する。
関連論文リスト
- Uncertainty-Aware Knowledge Tracing Models [3.8834950760134657]
我々は,予測の不確実性を捉えることによって,知識追跡モデルに新たな機能を加えるアプローチを示す。
我々は、KTモデルの不確実性は情報であり、この信号が教育学習プラットフォームにおける応用に教育的に有用であることを示す。
論文 参考訳(メタデータ) (2025-09-25T20:06:02Z) - Cold Start Problem: An Experimental Study of Knowledge Tracing Models with New Students [4.7750095113157744]
KnowledgeTracing(KT)は、知的学習システム(ITS)とのインタラクションに基づいて、学生の知識状態を予測する。
主要な課題はコールドスタートの問題であり、最小のインタラクションデータを持つ新入生の知識を正確に予測する。
深部知識追跡(DKT)、動的キー値記憶ネットワーク(DKVMN)、自己認識的知識追跡(SAKT)の3モデルにわたるコールドスタート効果について検討する。
結果は、全てのモデルが最初はコールドスタート条件下で苦戦するが、より多くの相互作用によって徐々に改善していることを示している。
論文 参考訳(メタデータ) (2025-05-22T04:09:07Z) - Improving Group Fairness in Knowledge Distillation via Laplace Approximation of Early Exits [0.0]
そこで本研究では,Laplace近似法を用いて精度の高い不確実性推定値を得る手法を提案する。
我々の主張を検証するために、MultiNLIデータセット上のBertベースのモデルを用いて、我々のアプローチをベンチマークする。
論文 参考訳(メタデータ) (2025-05-02T07:18:52Z) - Not All Options Are Created Equal: Textual Option Weighting for Token-Efficient LLM-Based Knowledge Tracing [0.14999444543328289]
大規模言語モデル(LLM)が知識追跡のための有望なツールとして登場した。
実例学習者のインタラクション履歴を文脈でエンコードするフレームワークであるtextitLLM を用いた Option-weighted Knowledge Tracing (LOKT) を提案する。
LOKTはスケーラブルでコスト効率のよい推論を可能にし、厳密なトークン制約の下でも強力なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-14T16:25:48Z) - Few-Shot Load Forecasting Under Data Scarcity in Smart Grids: A Meta-Learning Approach [0.18641315013048293]
本稿では,短期負荷予測のためのモデルに依存しないメタ学習アルゴリズムを提案する。
提案手法は,任意の長さの未知の負荷時間列に迅速に適応し,一般化することができる。
提案手法は,実世界の消費者の歴史的負荷消費データのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-09T18:59:08Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - MELEP: A Novel Predictive Measure of Transferability in Multi-Label ECG Diagnosis [1.3654846342364306]
本稿では,事前学習したモデルから下流のECG診断タスクへの知識伝達の有効性を推定する手段であるMELEPを紹介する。
実験により、MELEPは、小・不均衡のECGデータに基づいて、事前学習した畳み込みと繰り返しの深部ニューラルネットワークの性能を予測できることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:57:10Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Revisiting Class-Incremental Learning with Pre-Trained Models: Generalizability and Adaptivity are All You Need [84.3507610522086]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
近年の事前訓練は大きな進歩を遂げており、CILには膨大な事前訓練モデル(PTM)が利用できるようになった。
CILの中核となる要素は、モデル更新の適応性と知識伝達の一般化性である。
論文 参考訳(メタデータ) (2023-03-13T17:59:02Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Monotonicity in practice of adaptive testing [0.0]
本稿では,最近提案された単調性勾配アルゴリズムを用いて学習した適応テストのためのベイジアンネットワークモデルについて検討する。
手法の質は、チェコ国立数学試験の大規模なデータセットで実証的に評価される。
論文 参考訳(メタデータ) (2020-09-15T10:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。