論文の概要: qDKT: Question-centric Deep Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2005.12442v1
- Date: Mon, 25 May 2020 23:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:12:16.517878
- Title: qDKT: Question-centric Deep Knowledge Tracing
- Title(参考訳): qdkt: 質問中心の深い知識のトレース
- Authors: Shashank Sonkar, Andrew E. Waters, Andrew S. Lan, Phillip J. Grimaldi,
Richard G. Baraniuk
- Abstract要約: DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 29.431121650577396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) models, e.g., the deep knowledge tracing (DKT) model,
track an individual learner's acquisition of skills over time by examining the
learner's performance on questions related to those skills. A practical
limitation in most existing KT models is that all questions nested under a
particular skill are treated as equivalent observations of a learner's ability,
which is an inaccurate assumption in real-world educational scenarios. To
overcome this limitation we introduce qDKT, a variant of DKT that models every
learner's success probability on individual questions over time. First, qDKT
incorporates graph Laplacian regularization to smooth predictions under each
skill, which is particularly useful when the number of questions in the dataset
is big. Second, qDKT uses an initialization scheme inspired by the fastText
algorithm, which has found success in a variety of language modeling tasks. Our
experiments on several real-world datasets show that qDKT achieves state-of-art
performance on predicting learner outcomes. Because of this, qDKT can serve as
a simple, yet tough-to-beat, baseline for new question-centric KT models.
- Abstract(参考訳): 知識トレース(kt)モデル(例えば、deep knowledge tracing(dkt)モデル)は、個々の学習者のスキル獲得を追跡し、そのスキルに関連する質問に対する学習者の成績を調べる。
既存のほとんどのKTモデルでは、特定のスキルの下でネストされた全ての質問は、実際の教育シナリオにおいて不正確な仮定である学習者の能力の同等の観察として扱われる。
この制限を克服するために、各学習者の個々の質問に対する成功確率をモデル化するDKTの変種であるqDKTを導入する。
まず、qdktにはグラフラプラシアン正則化(graph laplacian regularization)が組み込まれており、各スキルの下での予測がスムーズになる。
第二に、qDKTはfastTextアルゴリズムにインスパイアされた初期化スキームを使用しており、様々な言語モデリングタスクで成功している。
実世界のいくつかのデータセットに対する実験により,qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
このため、qDKTは新しい質問中心のKTモデルのベースラインとして機能する。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Language Model Can Do Knowledge Tracing: Simple but Effective Method to Integrate Language Model and Knowledge Tracing Task [3.1459398432526267]
本稿では,LKT(Language Model-based Knowledge Tracing)を提案する。
LKTはテキスト情報を効果的に組み込んでおり、大規模なベンチマークデータセットで以前のKTモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-06-05T03:26:59Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - On Measuring the Intrinsic Few-Shot Hardness of Datasets [49.37562545777455]
トレーニング済みのモデルに対して、データセットに固有の数ショットの硬さを示す。
そこで我々は,数発の学習が可能な直感をとらえる,シンプルで軽量な尺度"Spread"を提案する。
我々の測定基準は、既存の硬さの概念に比べて数発の硬さを考慮し、計算が8~100倍高速である。
論文 参考訳(メタデータ) (2022-11-16T18:53:52Z) - pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models [46.05383477261115]
知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、時間とともに知識の熟達をモデル化するタスクである。
DLKTアプローチはいまだに不明であり、これらのアプローチの適切な測定と分析は依然として課題である。
我々は、DLKTメソッド間の有効な比較を保証するために、包括的なpythonベースのベンチマークプラットフォームであるtextscpyKTを導入する。
論文 参考訳(メタデータ) (2022-06-23T02:42:47Z) - A Survey of Knowledge Tracing: Models, Variants, and Applications [70.69281873057619]
知識追跡は、学生の行動データ分析の基本的なタスクの1つである。
我々は、異なる技術経路を持つ3種類の基本KTモデルを示す。
この急速に成長する分野における今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-05-06T13:05:55Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。