論文の概要: Context-Aware Attentive Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2007.12324v1
- Date: Fri, 24 Jul 2020 02:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:05:30.291905
- Title: Context-Aware Attentive Knowledge Tracing
- Title(参考訳): 文脈対応型注意知識トレース
- Authors: Aritra Ghosh, Neil Heffernan and Andrew S. Lan
- Abstract要約: 本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
- 参考スコア(独自算出の注目度): 21.397976659857793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge tracing (KT) refers to the problem of predicting future learner
performance given their past performance in educational applications. Recent
developments in KT using flexible deep neural network-based models excel at
this task. However, these models often offer limited interpretability, thus
making them insufficient for personalized learning, which requires using
interpretable feedback and actionable recommendations to help learners achieve
better learning outcomes. In this paper, we propose attentive knowledge tracing
(AKT), which couples flexible attention-based neural network models with a
series of novel, interpretable model components inspired by cognitive and
psychometric models. AKT uses a novel monotonic attention mechanism that
relates a learner's future responses to assessment questions to their past
responses; attention weights are computed using exponential decay and a
context-aware relative distance measure, in addition to the similarity between
questions. Moreover, we use the Rasch model to regularize the concept and
question embeddings; these embeddings are able to capture individual
differences among questions on the same concept without using an excessive
number of parameters. We conduct experiments on several real-world benchmark
datasets and show that AKT outperforms existing KT methods (by up to $6\%$ in
AUC in some cases) on predicting future learner responses. We also conduct
several case studies and show that AKT exhibits excellent interpretability and
thus has potential for automated feedback and personalization in real-world
educational settings.
- Abstract(参考訳): 知識追跡(KT)とは、教育アプリケーションにおける過去の成績から、将来の学習者のパフォーマンスを予測する問題を指す。
フレキシブルディープニューラルネットワークベースモデルを用いたKTの最近の開発は、このタスクで優れている。
しかし、これらのモデルはしばしば限定的な解釈可能性を提供しており、パーソナライズされた学習には不十分である。
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、認知モデルと心理メトリックモデルにインスパイアされた一連の新しい解釈可能なモデルコンポーネントを結合した注意知識追跡(AKT)を提案する。
AKTは、学習者の将来の反応を過去の反応に関連付ける新しい単調な注意機構を用いており、注意重みは、質問間の類似性に加えて、指数的減衰と文脈対応相対距離測定を用いて計算される。
さらに、raschモデルを用いて概念の定式化と質問埋め込みを行い、それらの埋め込みは過剰なパラメータを使わずに同じ概念の質問間の個々の違いを捉えることができる。
いくつかの実世界のベンチマークデータセットで実験を行い、AKTが将来の学習者の反応を予測する上で、既存のKTメソッド(AUCでは最大6.5%)より優れていることを示す。
また,いくつかのケーススタディを実施し,aktが優れた解釈性を示し,実世界の教育環境における自動フィードバックとパーソナライゼーションの可能性を示した。
関連論文リスト
- Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Improving Interpretability of Deep Sequential Knowledge Tracing Models
with Question-centric Cognitive Representations [22.055683237994696]
上記の課題に対処する質問中心の解釈可能なKTモデルQIKTを提案する。
提案したQIKTアプローチは、学生の知識状態の変動をきめ細かいレベルで明示的にモデル化する。
より優れたモデル解釈性を備えた予測精度で、幅広いディープラーニングベースのKTモデルより優れています。
論文 参考訳(メタデータ) (2023-02-14T08:14:30Z) - Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing [5.648636668261282]
本稿では,新しい知識追跡モデル,すなわちemphDeep Graph Memory Network(DGMN)を提案する。
このモデルでは、忘れる動作を捉えるために、注意記憶構造に忘れるゲーティング機構を組み込む。
このモデルは動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
論文 参考訳(メタデータ) (2021-08-18T12:04:10Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - On the Interpretability of Deep Learning Based Models for Knowledge
Tracing [5.120837730908589]
知識追跡により、Intelligent Tutoring Systemsは、学生が習得したトピックやスキルを推測することができる。
Deep Knowledge Tracing(DKT)やDynamic Key-Value Memory Network(DKVMN)といったディープラーニングベースのモデルは、大幅に改善されている。
しかし、これらのディープラーニングベースのモデルは、ディープニューラルネットワークによって学習される意思決定プロセスが完全には理解されていないため、他のモデルほど解釈できない。
論文 参考訳(メタデータ) (2021-01-27T11:55:03Z) - Deep Knowledge Tracing with Learning Curves [0.9088303226909278]
本稿では,進化的知識追跡(CAKT)モデルを提案する。
このモデルは、3次元畳み込みニューラルネットワークを用いて、次の質問で同じ知識の概念を適用した学生の最近の経験を明示的に学習する。
CAKTは,既存のモデルと比較して,生徒の反応を予測する上で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-26T15:24:51Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。