論文の概要: Code-DKT: A Code-based Knowledge Tracing Model for Programming Tasks
- arxiv url: http://arxiv.org/abs/2206.03545v1
- Date: Tue, 7 Jun 2022 19:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 06:16:32.602693
- Title: Code-DKT: A Code-based Knowledge Tracing Model for Programming Tasks
- Title(参考訳): Code-DKT: プログラミングタスクのためのコードベースの知識追跡モデル
- Authors: Yang Shi, Min Chi, Tiffany Barnes, Thomas Price
- Abstract要約: 本稿では,DKTを拡張するためのドメイン固有のコード機能を自動的に抽出し,選択するためのアテンション機構を用いたCode-based Deep Knowledge Tracing (Code-DKT)を提案する。
我々は,5つのプログラム課題を解こうとする50人のクラスから得られたデータセットに対して,Code-DKTの有効性をベイジアン・ディープ・ナレッジ・トラクション(BKT,DKT)と比較した。
- 参考スコア(独自算出の注目度): 10.474382290378049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge tracing (KT) models are a popular approach for predicting students'
future performance at practice problems using their prior attempts. Though many
innovations have been made in KT, most models including the state-of-the-art
Deep KT (DKT) mainly leverage each student's response either as correct or
incorrect, ignoring its content. In this work, we propose Code-based Deep
Knowledge Tracing (Code-DKT), a model that uses an attention mechanism to
automatically extract and select domain-specific code features to extend DKT.
We compared the effectiveness of Code-DKT against Bayesian and Deep Knowledge
Tracing (BKT and DKT) on a dataset from a class of 50 students attempting to
solve 5 introductory programming assignments. Our results show that Code-DKT
consistently outperforms DKT by 3.07-4.00% AUC across the 5 assignments, a
comparable improvement to other state-of-the-art domain-general KT models over
DKT. Finally, we analyze problem-specific performance through a set of case
studies for one assignment to demonstrate when and how code features improve
Code-DKT's predictions.
- Abstract(参考訳): 知識追跡モデル (KT) は, 学生の過去の試みを用いて, 実践問題における将来のパフォーマンスを予測するための一般的なアプローチである。
多くの革新がKTで行われてきたが、最先端のDeep KT(DKT)を含むほとんどのモデルは、その内容を無視して、学生の反応を正しくも正しくも活用している。
本研究では,dktを拡張したドメイン固有のコード特徴の自動抽出と選択を行うモデルである,コードベース深層知識トレース(code-dkt)を提案する。
我々は,5つの入門プログラミング課題を解こうとする50人のクラスから得られたデータセットに対して,Code-DKTの有効性をベイジアン・ディープ知識追跡(BKT,DKT)と比較した。
以上の結果から,Code-DKTはDKTよりもDKTを3.07-4.00%向上させることがわかった。
最後に,1つの代入のケーススタディを通じて問題固有のパフォーマンスを分析し,コード機能によるcode-dktの予測の改善を実証する。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Language Model Can Do Knowledge Tracing: Simple but Effective Method to Integrate Language Model and Knowledge Tracing Task [3.1459398432526267]
本稿では,LKT(Language Model-based Knowledge Tracing)を提案する。
LKTはテキスト情報を効果的に組み込んでおり、大規模なベンチマークデータセットで以前のKTモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-06-05T03:26:59Z) - Improving Low-Resource Knowledge Tracing Tasks by Supervised Pre-training and Importance Mechanism Fine-tuning [25.566963415155325]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - pyKT: A Python Library to Benchmark Deep Learning based Knowledge
Tracing Models [46.05383477261115]
知識追跡(KT)は、学生の履歴学習インタラクションデータを用いて、時間とともに知識の熟達をモデル化するタスクである。
DLKTアプローチはいまだに不明であり、これらのアプローチの適切な測定と分析は依然として課題である。
我々は、DLKTメソッド間の有効な比較を保証するために、包括的なpythonベースのベンチマークプラットフォームであるtextscpyKTを導入する。
論文 参考訳(メタデータ) (2022-06-23T02:42:47Z) - Enhancing Knowledge Tracing via Adversarial Training [5.461665809706664]
本研究では,学生の知識習得を時間とともに追跡することを目的とした知識追跡問題(KT)について検討する。
KTの最近の進歩は、KTの性能を改善するためにディープニューラルネットワーク(DNN)の探索に集中している。
我々は,効率的なATベースKT法(ATKT)を提案し,KTモデルの一般化を強化し,KTの限界を推し進める。
論文 参考訳(メタデータ) (2021-08-10T03:35:13Z) - A Survey of Knowledge Tracing: Models, Variants, and Applications [70.69281873057619]
知識追跡は、学生の行動データ分析の基本的なタスクの1つである。
我々は、異なる技術経路を持つ3種類の基本KTモデルを示す。
この急速に成長する分野における今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-05-06T13:05:55Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。