論文の概要: Uncertainty-Aware Knowledge Tracing Models
- arxiv url: http://arxiv.org/abs/2509.21514v1
- Date: Thu, 25 Sep 2025 20:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.972845
- Title: Uncertainty-Aware Knowledge Tracing Models
- Title(参考訳): 不確かさを意識した知識追跡モデル
- Authors: Joshua Mitton, Prarthana Bhattacharyya, Ralph Abboud, Simon Woodhead,
- Abstract要約: 我々は,予測の不確実性を捉えることによって,知識追跡モデルに新たな機能を加えるアプローチを示す。
我々は、KTモデルの不確実性は情報であり、この信号が教育学習プラットフォームにおける応用に教育的に有用であることを示す。
- 参考スコア(独自算出の注目度): 3.8834950760134657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The main focus of research on Knowledge Tracing (KT) models is on model developments with the aim of improving predictive accuracy. Most of these models make the most incorrect predictions when students choose a distractor, leading to student errors going undetected. We present an approach to add new capabilities to KT models by capturing predictive uncertainty and demonstrate that a larger predictive uncertainty aligns with model incorrect predictions. We show that uncertainty in KT models is informative and that this signal would be pedagogically useful for application in an educational learning platform that can be used in a limited resource setting where understanding student ability is necessary.
- Abstract(参考訳): 知識追跡(KT)モデルの研究の主な焦点は、予測精度の向上を目的としたモデル開発である。
これらのモデルのほとんどは、学生が気を散らす人を選ぶとき、最も間違った予測をする。
予測不確かさを捉えることによって,KTモデルに新たな機能を加えるアプローチを提案し,予測不確かさがモデル誤予測と一致することを示す。
KTモデルの不確実性は情報的であり、この信号は、学生の能力を理解するために必要な限られたリソース設定で使用できる教育学習プラットフォームにおいて、教育的に有用であることを示す。
関連論文リスト
- GraphPPD: Posterior Predictive Modelling for Graph-Level Inference [24.363835075189286]
本研究では,不確実性を考慮した予測を実現するために,後天予測分布(PPD)のための新しい変分モデルフレームワークを提案する。
既存のGNNから派生したグラフレベルの埋め込みに基づいて、我々のフレームワークはデータ適応方式でPDを学習することができる。
論文 参考訳(メタデータ) (2025-08-23T11:28:50Z) - Bounding-Box Inference for Error-Aware Model-Based Reinforcement Learning [4.185571779339683]
モデルに基づく強化学習では、シミュレーションされた経験は実環境からの経験と同等のものとして扱われることが多い。
モデルベースの更新に対する不確実性を推定するために、最適結果が分布に敏感な推測を必要とすることを示す。
境界ボックス推論は効果的な選択計画を支援することができる。
論文 参考訳(メタデータ) (2024-06-23T04:23:15Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Trusting Language Models in Education [1.2578554943276923]
本稿では,BERT 上の XGBoost を用いて補正された確率を出力することを提案する。
我々の仮説は、注意の流れに含まれる不確実性のレベルは、モデルの応答自体の品質に関係している、というものである。
論文 参考訳(メタデータ) (2023-08-07T18:27:54Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Data Uncertainty without Prediction Models [0.8223798883838329]
予測モデルを明示的に使用せずに、距離重み付きクラス不純物という不確実性推定手法を提案する。
距離重み付きクラス不純物は予測モデルによらず効果的に機能することを確認した。
論文 参考訳(メタデータ) (2022-04-25T13:26:06Z) - Better sampling in explanation methods can prevent dieselgate-like
deception [0.0]
予測モデルの解釈性は、それらのバイアスとエラーの原因を決定するために必要である。
IME、LIME、SHAPなどの一般的なテクニックでは、インスタンス機能の摂動を使用して個々の予測を説明します。
改良されたサンプリングによりLIMEとSHAPのロバスト性が向上し,以前に未試験のメソッドIMEがすでに最もロバストであることが示されている。
論文 参考訳(メタデータ) (2021-01-26T13:41:37Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。