論文の概要: qDKT: Question-centric Deep Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2005.12442v1
- Date: Mon, 25 May 2020 23:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:12:16.517878
- Title: qDKT: Question-centric Deep Knowledge Tracing
- Title(参考訳): qdkt: 質問中心の深い知識のトレース
- Authors: Shashank Sonkar, Andrew E. Waters, Andrew S. Lan, Phillip J. Grimaldi,
Richard G. Baraniuk
- Abstract要約: DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 29.431121650577396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) models, e.g., the deep knowledge tracing (DKT) model,
track an individual learner's acquisition of skills over time by examining the
learner's performance on questions related to those skills. A practical
limitation in most existing KT models is that all questions nested under a
particular skill are treated as equivalent observations of a learner's ability,
which is an inaccurate assumption in real-world educational scenarios. To
overcome this limitation we introduce qDKT, a variant of DKT that models every
learner's success probability on individual questions over time. First, qDKT
incorporates graph Laplacian regularization to smooth predictions under each
skill, which is particularly useful when the number of questions in the dataset
is big. Second, qDKT uses an initialization scheme inspired by the fastText
algorithm, which has found success in a variety of language modeling tasks. Our
experiments on several real-world datasets show that qDKT achieves state-of-art
performance on predicting learner outcomes. Because of this, qDKT can serve as
a simple, yet tough-to-beat, baseline for new question-centric KT models.
- Abstract(参考訳): 知識トレース(kt)モデル(例えば、deep knowledge tracing(dkt)モデル)は、個々の学習者のスキル獲得を追跡し、そのスキルに関連する質問に対する学習者の成績を調べる。
既存のほとんどのKTモデルでは、特定のスキルの下でネストされた全ての質問は、実際の教育シナリオにおいて不正確な仮定である学習者の能力の同等の観察として扱われる。
この制限を克服するために、各学習者の個々の質問に対する成功確率をモデル化するDKTの変種であるqDKTを導入する。
まず、qdktにはグラフラプラシアン正則化(graph laplacian regularization)が組み込まれており、各スキルの下での予測がスムーズになる。
第二に、qDKTはfastTextアルゴリズムにインスパイアされた初期化スキームを使用しており、様々な言語モデリングタスクで成功している。
実世界のいくつかのデータセットに対する実験により,qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
このため、qDKTは新しい質問中心のKTモデルのベースラインとして機能する。
関連論文リスト
- Improving Low-Resource Knowledge Tracing Tasks by Supervised
Pre-training and Importance Mechanism Fine-tuning [27.091158937813063]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - Continual Learning with Pre-Trained Models: A Survey [66.49084129482239]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - CTP: Towards Vision-Language Continual Pretraining via Compatible
Momentum Contrast and Topology Preservation [128.00940554196976]
Vision-Language Continual Pretraining (VLCP)は、大規模なデータセット上でオフラインでトレーニングすることで、さまざまな下流タスクに対して印象的な結果を示している。
VLCP(Vision-Language Continual Pretraining)の研究を支援するために,我々はまず,包括的で統一されたベンチマークデータセットP9Dをコントリビュートする。
独立したタスクとしての各業界からのデータは、継続的な学習をサポートし、Webデータの事前学習をシミュレートする現実世界のロングテールな性質に準拠している。
論文 参考訳(メタデータ) (2023-08-14T13:53:18Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - simpleKT: A Simple But Tough-to-Beat Baseline for Knowledge Tracing [22.055683237994696]
我々は、textscsimpleKT という名前の KT タスクを扱うための、強力だが単純なベースライン手法を提供する。
心理学におけるラッシュモデルに触発され、質問固有のバリエーションを明示的にモデル化し、質問間の個人差を捉えた。
本研究は,学生の学習行動に埋め込まれた時間認識情報を抽出するために,通常のドット・プロダクト・アテンション機能を利用する。
論文 参考訳(メタデータ) (2023-02-14T08:09:09Z) - On Measuring the Intrinsic Few-Shot Hardness of Datasets [49.37562545777455]
トレーニング済みのモデルに対して、データセットに固有の数ショットの硬さを示す。
そこで我々は,数発の学習が可能な直感をとらえる,シンプルで軽量な尺度"Spread"を提案する。
我々の測定基準は、既存の硬さの概念に比べて数発の硬さを考慮し、計算が8~100倍高速である。
論文 参考訳(メタデータ) (2022-11-16T18:53:52Z) - pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models [46.05383477261115]
知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、時間とともに知識の熟達をモデル化するタスクである。
DLKTアプローチはいまだに不明であり、これらのアプローチの適切な測定と分析は依然として課題である。
我々は、DLKTメソッド間の有効な比較を保証するために、包括的なpythonベースのベンチマークプラットフォームであるtextscpyKTを導入する。
論文 参考訳(メタデータ) (2022-06-23T02:42:47Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - KACC: A Multi-task Benchmark for Knowledge Abstraction, Concretization
and Completion [99.47414073164656]
包括的知識グラフ(KG)は、インスタンスレベルのエンティティグラフとオントロジーレベルの概念グラフを含む。
2ビューのKGは、知識の抽象化、包括化、完成に関する人間の能力を「シミュレーション」するためのモデルのためのテストベッドを提供する。
我々は,データセットのスケール,タスクカバレッジ,難易度の観点から,既存のベンチマークを改善した統一KGベンチマークを提案する。
論文 参考訳(メタデータ) (2020-04-28T16:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。