論文の概要: pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models
- arxiv url: http://arxiv.org/abs/2206.11460v1
- Date: Thu, 23 Jun 2022 02:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 00:31:35.577090
- Title: pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models
- Title(参考訳): pyKT: ディープラーニングベースの知識追跡モデルをベンチマークするPythonライブラリ
- Authors: Zitao Liu, Qiongqiong Liu, Jiahao Chen, Shuyan Huang, Jiliang Tang,
Weiqi Luo
- Abstract要約: 知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、時間とともに知識の熟達をモデル化するタスクである。
近年,様々な深層学習技術を用いてKT問題の解法が進められている。
しかし、これらの深層学習に基づく知識追跡手法の適切な測定と分析は依然として課題である。
- 参考スコア(独自算出の注目度): 46.05383477261115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge tracing (KT) is the task of using students' historical learning
interaction data to model their knowledge mastery over time so as to make
predictions on their future interaction performance. Recently, remarkable
progress has been made of using various deep learning techniques to solve the
KT problem. However, the success behind deep learning based knowledge tracing
(DLKT) approaches is still left somewhat mysterious and proper measurement and
analysis of these DLKT approaches remain a challenge. First, data preprocessing
procedures in existing works are often private and/or custom, which limits
experimental standardization. Furthermore, existing DLKT studies often differ
in terms of the evaluation protocol and are far away real-world educational
contexts. To address these problems, we introduce a comprehensive python based
benchmark platform, \textsc{pyKT}, to guarantee valid comparisons across DLKT
methods via thorough evaluations. The \textsc{pyKT} library consists of a
standardized set of integrated data preprocessing procedures on 7 popular
datasets across different domains, and 10 frequently compared DLKT model
implementations for transparent experiments. Results from our fine-grained and
rigorous empirical KT studies yield a set of observations and suggestions for
effective DLKT, e.g., wrong evaluation setting may cause label leakage that
generally leads to performance inflation; and the improvement of many DLKT
approaches is minimal compared to the very first DLKT model proposed by Piech
et al. \cite{piech2015deep}. We have open sourced \textsc{pyKT} and our
experimental results at \url{https://pykt.org/}. We welcome contributions from
other research groups and practitioners.
- Abstract(参考訳): 知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、将来的なインタラクションパフォーマンスを予測するために、時間とともに知識熟達をモデル化するタスクである。
近年,様々な深層学習技術を用いてKT問題の解法が目覚ましい進歩を遂げている。
しかし、深層学習に基づく知識追跡(DLKT)手法の成功はいまだに謎めいたものであり、これらのDLKT手法の適切な測定と分析は依然として課題である。
まず、既存の作業におけるデータ前処理手順は、しばしばプライベートまたはカスタムであり、実験的な標準化を制限する。
さらに、既存のDLKT研究は評価プロトコルの点でしばしば異なり、現実世界の教育状況は遠く離れている。
これらの問題に対処するために,pythonベースの総合ベンチマークプラットフォーム \textsc{pykt} を導入し,完全な評価を通じてdlktメソッド間の有効な比較を保証する。
\textsc{pyKT}ライブラリは、異なるドメインにまたがる7つの一般的なデータセットに対する統合データ前処理手順の標準化セットと、透過的な実験のためのDLKTモデル実装を10回頻繁に比較する。
本研究の結果は, DLKTの有効性に関する一連の考察と提案, 例えば, 誤評価設定は, 一般に性能インフレーションにつながるラベルリークを引き起こす可能性があり, かつPiechらによって提案された最初のDLKTモデルと比較して, DLKTの多くのアプローチの改善は最小限である。
略称は「2015deep」。
我々は \textsc{pykt} をオープンソース化し、実験結果を \url{https://pykt.org/} で行った。
他の研究グループや実践者からの貢献を歓迎します。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Towards Robust Knowledge Tracing Models via k-Sparse Attention [33.02197868261949]
textscsparseKTは、注意に基づくDLKTアプローチの堅牢性と一般化を改善するための、シンプルで効果的なフレームワークである。
我々のテキストスパースKTは、注意的なKTモデルが無関係な学生の相互作用を取り除くのに役立つことを示す。
論文 参考訳(メタデータ) (2024-07-24T08:49:18Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Improving Low-Resource Knowledge Tracing Tasks by Supervised Pre-training and Importance Mechanism Fine-tuning [25.566963415155325]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - B-Learner: Quasi-Oracle Bounds on Heterogeneous Causal Effects Under
Hidden Confounding [51.74479522965712]
本稿では,B-Learnerと呼ばれるメタラーナーを提案する。
我々は、その推定が有効で、鋭く、効率的であることを証明し、既存の方法よりも一般的な条件下で構成推定器に対して準オーラル特性を持つことを示した。
論文 参考訳(メタデータ) (2023-04-20T18:07:19Z) - simpleKT: A Simple But Tough-to-Beat Baseline for Knowledge Tracing [22.055683237994696]
我々は、textscsimpleKT という名前の KT タスクを扱うための、強力だが単純なベースライン手法を提供する。
心理学におけるラッシュモデルに触発され、質問固有のバリエーションを明示的にモデル化し、質問間の個人差を捉えた。
本研究は,学生の学習行動に埋め込まれた時間認識情報を抽出するために,通常のドット・プロダクト・アテンション機能を利用する。
論文 参考訳(メタデータ) (2023-02-14T08:09:09Z) - Code-DKT: A Code-based Knowledge Tracing Model for Programming Tasks [10.474382290378049]
本稿では,DKTを拡張するためのドメイン固有のコード機能を自動的に抽出し,選択するためのアテンション機構を用いたCode-based Deep Knowledge Tracing (Code-DKT)を提案する。
我々は,5つのプログラム課題を解こうとする50人のクラスから得られたデータセットに対して,Code-DKTの有効性をベイジアン・ディープ・ナレッジ・トラクション(BKT,DKT)と比較した。
論文 参考訳(メタデータ) (2022-06-07T19:29:44Z) - WRENCH: A Comprehensive Benchmark for Weak Supervision [66.82046201714766]
ベンチマークは、分類とシーケンスタグ付けのための22の異なる実世界のデータセットで構成されている。
ベンチマークプラットフォームとしての有効性を示すために、100以上のメソッドの変種に対して広範な比較を行うためにベンチマークを使用します。
論文 参考訳(メタデータ) (2021-09-23T13:47:16Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。