論文の概要: Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2410.01727v1
- Date: Wed, 2 Oct 2024 16:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 15:43:48.634819
- Title: Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing
- Title(参考訳): 知識追跡のための自動知識概念アノテーションと質問表現学習
- Authors: Yilmazcan Ozyurt, Stefan Feuerriegel, Mrinmaya Sachan,
- Abstract要約: 自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
- 参考スコア(独自算出の注目度): 59.480951050911436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) is a popular approach for modeling students' learning progress over time, which can enable more personalized and adaptive learning. However, existing KT approaches face two major limitations: (1) they rely heavily on expert-defined knowledge concepts (KCs) in questions, which is time-consuming and prone to errors; and (2) KT methods tend to overlook the semantics of both questions and the given KCs. In this work, we address these challenges and present KCQRL, a framework for automated knowledge concept annotation and question representation learning that can improve the effectiveness of any existing KT model. First, we propose an automated KC annotation process using large language models (LLMs), which generates question solutions and then annotates KCs in each solution step of the questions. Second, we introduce a contrastive learning approach to generate semantically rich embeddings for questions and solution steps, aligning them with their associated KCs via a tailored false negative elimination approach. These embeddings can be readily integrated into existing KT models, replacing their randomly initialized embeddings. We demonstrate the effectiveness of KCQRL across 15 KT algorithms on two large real-world Math learning datasets, where we achieve consistent performance improvements.
- Abstract(参考訳): 知識追跡(KT)は、学生の学習進捗を時間とともにモデル化する一般的な手法であり、よりパーソナライズされ適応的な学習を可能にする。
しかし、既存のKT手法は、(1)専門家が定義した知識概念(KC)に大きく依存している。
本稿では,これらの課題に対処し,既存のKTモデルの有効性を向上させるための知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
まず,大規模言語モデル(LLM)を用いた自動KCアノテーションプロセスを提案する。
第二に、質問や解のステップに意味的にリッチな埋め込みを生成するための対照的な学習手法を導入し、それらと関連するKCを調整された偽陰性除去手法により整合させる。
これらの埋め込みは既存のKTモデルに容易に統合でき、ランダムに初期化された埋め込みを置き換えることができる。
我々は、15個のKTアルゴリズムにまたがるKCQRLの有効性を、2つの大規模な実世界のMath学習データセットで示し、一貫した性能改善を実現した。
関連論文リスト
- SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - Attentive Q-Matrix Learning for Knowledge Tracing [4.863310073296471]
エンド・ツー・エンド・エンド・スタイルのモデルとして,Q-matrix-based Attentive Knowledge Tracing (QAKT)を提案する。
QAKTは、問題を階層的にモデル化し、生徒のシーケンスに基づいてq行列を効率的に学習することができる。
さらなる実験の結果、QAKTによって学習されたq行列は、人間の専門家によってラベル付けされたものよりも非常にモデルに依存し、情報に十分であることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T12:31:34Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - Sequential Transfer in Reinforcement Learning with a Generative Model [48.40219742217783]
本稿では,従来の課題から知識を移譲することで,新たな課題を学習する際のサンプルの複雑さを軽減する方法について述べる。
この種の事前知識を使用することのメリットを明確に示すために,PAC境界のサンプル複雑性を導出する。
簡単なシミュレートされた領域における理論的な発見を実証的に検証する。
論文 参考訳(メタデータ) (2020-07-01T19:53:35Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。