論文の概要: simpleKT: A Simple But Tough-to-Beat Baseline for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2302.06881v1
- Date: Tue, 14 Feb 2023 08:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 16:01:20.741117
- Title: simpleKT: A Simple But Tough-to-Beat Baseline for Knowledge Tracing
- Title(参考訳): SimpleKT:知識追跡のためのシンプルだがタフなベースライン
- Authors: Zitao Liu, Qiongqiong Liu, Jiahao Chen, Shuyan Huang, Weiqi Luo
- Abstract要約: 我々は、textscsimpleKT という名前の KT タスクを扱うための、強力だが単純なベースライン手法を提供する。
心理学におけるラッシュモデルに触発され、質問固有のバリエーションを明示的にモデル化し、質問間の個人差を捉えた。
本研究は,学生の学習行動に埋め込まれた時間認識情報を抽出するために,通常のドット・プロダクト・アテンション機能を利用する。
- 参考スコア(独自算出の注目度): 22.055683237994696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge tracing (KT) is the problem of predicting students' future
performance based on their historical interactions with intelligent tutoring
systems. Recently, many works present lots of special methods for applying deep
neural networks to KT from different perspectives like model architecture,
adversarial augmentation and etc., which make the overall algorithm and system
become more and more complex. Furthermore, due to the lack of standardized
evaluation protocol \citep{liu2022pykt}, there is no widely agreed KT baselines
and published experimental comparisons become inconsistent and
self-contradictory, i.e., the reported AUC scores of DKT on ASSISTments2009
range from 0.721 to 0.821 \citep{minn2018deep,yeung2018addressing}. Therefore,
in this paper, we provide a strong but simple baseline method to deal with the
KT task named \textsc{simpleKT}. Inspired by the Rasch model in psychometrics,
we explicitly model question-specific variations to capture the individual
differences among questions covering the same set of knowledge components that
are a generalization of terms of concepts or skills needed for learners to
accomplish steps in a task or a problem. Furthermore, instead of using
sophisticated representations to capture student forgetting behaviors, we use
the ordinary dot-product attention function to extract the time-aware
information embedded in the student learning interactions. Extensive
experiments show that such a simple baseline is able to always rank top 3 in
terms of AUC scores and achieve 57 wins, 3 ties and 16 loss against 12 DLKT
baseline methods on 7 public datasets of different domains. We believe this
work serves as a strong baseline for future KT research. Code is available at
\url{https://github.com/pykt-team/pykt-toolkit}\footnote{We merged our model to
the \textsc{pyKT} benchmark at \url{https://pykt.org/}.}.
- Abstract(参考訳): 知識追跡(KT)は、知的学習システムとの歴史的相互作用に基づいて、学生の将来のパフォーマンスを予測する問題である。
近年、モデルアーキテクチャや逆拡張など、さまざまな視点からktにディープニューラルネットワークを適用するための特別な手法が数多く提案されており、アルゴリズムやシステムがますます複雑になっている。
さらに、標準化された評価プロトコル \citep{liu2022pykt} の欠如により、広く合意されたKT基底線は存在せず、実験的な比較が矛盾し自己矛盾となり、すなわち、APSISTments 2009 上で報告された DKT の AUC スコアは 0.721 から 0.821 の範囲である。
そこで本稿では, textsc{simpleKT} と呼ばれる KT タスクを扱うための, 強で単純なベースライン手法を提案する。
心理学におけるRaschモデルに着想を得て,学習者が課題や課題のステップを達成するために必要な概念やスキルを一般化した知識成分の集合を包含する質問の個人差を抽出するために,質問特化変異を明示的にモデル化した。
さらに,学生の学習行動の把握に洗練された表現を用いる代わりに,通常のドット製品アテンション関数を用いて,学生学習インタラクションに埋め込まれた時間認識情報を抽出する。
このような単純なベースラインは、aucスコアの点で常にトップ3にランク付けでき、異なるドメインの7つのパブリックデータセットで12のdlktベースラインメソッドに対して57勝3敗16敗を達成した。
我々は、この研究が将来のKT研究の強力な基盤となると信じている。
コードは \url{https://github.com/pykt-team/pykt-toolkit}\footnote{ we merged our model to the \textsc{pyKT} benchmark at \url{https://pykt.org/} で利用可能である。
}.
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Towards Robust Knowledge Tracing Models via k-Sparse Attention [33.02197868261949]
textscsparseKTは、注意に基づくDLKTアプローチの堅牢性と一般化を改善するための、シンプルで効果的なフレームワークである。
我々のテキストスパースKTは、注意的なKTモデルが無関係な学生の相互作用を取り除くのに役立つことを示す。
論文 参考訳(メタデータ) (2024-07-24T08:49:18Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - Enhancing Deep Knowledge Tracing with Auxiliary Tasks [24.780533765606922]
本稿では,emphAT-DKTによる知識追跡モデルの予測性能の向上について述べる。
実世界の3つの教育データセットに関する総合的な実験を行い、提案手法を深部逐次KTモデルと非逐次モデルの両方と比較する。
論文 参考訳(メタデータ) (2023-02-14T08:21:37Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models [46.05383477261115]
知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、時間とともに知識の熟達をモデル化するタスクである。
DLKTアプローチはいまだに不明であり、これらのアプローチの適切な測定と分析は依然として課題である。
我々は、DLKTメソッド間の有効な比較を保証するために、包括的なpythonベースのベンチマークプラットフォームであるtextscpyKTを導入する。
論文 参考訳(メタデータ) (2022-06-23T02:42:47Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning with Instance Bundles for Reading Comprehension [61.823444215188296]
質問応答スコアを複数の関連インスタンスで比較する新しい監視手法を提案する。
具体的には、密接に対照的な質問や回答のさまざまな近所でこれらのスコアを正規化します。
2つのデータセット上のインスタンスバンドルによるトレーニングの有効性を実証的に実証する。
論文 参考訳(メタデータ) (2021-04-18T06:17:54Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。