論文の概要: Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2108.08105v1
- Date: Wed, 18 Aug 2021 12:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 20:04:52.273470
- Title: Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing
- Title(参考訳): フォッティング・ロバスト知識追跡のためのディープグラフメモリネットワーク
- Authors: Ghodai Abdelrahman, Qing Wang
- Abstract要約: 本稿では,新しい知識追跡モデル,すなわちemphDeep Graph Memory Network(DGMN)を提案する。
このモデルでは、忘れる動作を捉えるために、注意記憶構造に忘れるゲーティング機構を組み込む。
このモデルは動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
- 参考スコア(独自算出の注目度): 5.648636668261282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracing a student's knowledge is vital for tailoring the learning experience.
Recent knowledge tracing methods tend to respond to these challenges by
modelling knowledge state dynamics across learning concepts. However, they
still suffer from several inherent challenges including: modelling forgetting
behaviours and identifying relationships among latent concepts. To address
these challenges, in this paper, we propose a novel knowledge tracing model,
namely \emph{Deep Graph Memory Network} (DGMN). In this model, we incorporate a
forget gating mechanism into an attention memory structure in order to capture
forgetting behaviours dynamically during the knowledge tracing process.
Particularly, this forget gating mechanism is built upon attention forgetting
features over latent concepts considering their mutual dependencies. Further,
this model has the capability of learning relationships between latent concepts
from a dynamic latent concept graph in light of a student's evolving knowledge
states. A comprehensive experimental evaluation has been conducted using four
well-established benchmark datasets. The results show that DGMN consistently
outperforms the state-of-the-art KT models over all the datasets. The
effectiveness of modelling forgetting behaviours and learning latent concept
graphs has also been analyzed in our experiments.
- Abstract(参考訳): 学生の知識の追跡は学習経験の調整に不可欠である。
近年の知識追跡手法は,知識状態のダイナミクスを学習概念全体にわたってモデル化することによって,これらの課題に対処する傾向にある。
しかし、それらはまだいくつかの固有の課題に苦しんでいる: 振る舞いを忘れることをモデリングし、潜在概念間の関係を識別する。
本稿では,これらの課題に対処するために,新しい知識追跡モデル,すなわち \emph{Deep Graph Memory Network} (DGMN)を提案する。
本モデルでは,知識追跡過程において,忘れる動作を動的に捉えるために,注意記憶構造に,忘れるゲーティング機構を組み込む。
特に、この無視ゲーティング機構は、相互依存を考慮した潜在概念上の特徴を忘れることによって構築される。
さらに、このモデルは、学生の進化する知識状態を考慮して、動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
4つの確立されたベンチマークデータセットを用いて総合的な実験評価を行った。
結果は、DGMNがすべてのデータセットで最先端のKTモデルより一貫して優れていることを示している。
また, 行動のモデル化と潜在概念グラフの学習の有効性についても検討した。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Temporal Graph Memory Networks For Knowledge Tracing [0.40964539027092906]
本稿では,深部時間グラフメモリネットワークを用いて,知識状態の関連性と時間的ダイナミクスを協調的にモデル化する手法を提案する。
また,グラフメモリモジュール上の時間減衰制約を用いて,学生の忘れ行動を表現する汎用手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T07:47:02Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities [72.68829963458408]
異種モデルのパラメータ空間のギャップを埋めることを学ぶMergeNetを提案する。
MergeNetの中核となるメカニズムはパラメータアダプタにあり、ソースモデルの低ランクパラメータをクエリすることで動作する。
MergeNetは両方のモデルと共に学習され、我々のフレームワークは、現在のステージに関する知識を動的に転送し、適応することができます。
論文 参考訳(メタデータ) (2024-04-20T08:34:39Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - A Probabilistic Generative Model for Tracking Multi-Knowledge Concept
Mastery Probability [8.920928164556171]
InTerpretable pRobAbilistiC gEnerative moDel (TRACED)を提案する。
実世界の4つのデータセットを3つの知識駆動タスクで実験する。
実験の結果,TRACEDは学生の今後の成績を予測する上で,既存の知識追跡手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-17T03:50:49Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Deep Knowledge Tracing with Learning Curves [0.9088303226909278]
本稿では,進化的知識追跡(CAKT)モデルを提案する。
このモデルは、3次元畳み込みニューラルネットワークを用いて、次の質問で同じ知識の概念を適用した学生の最近の経験を明示的に学習する。
CAKTは,既存のモデルと比較して,生徒の反応を予測する上で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-26T15:24:51Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - Dynamic Knowledge embedding and tracing [18.717482292051788]
本稿では,行列分解の手法と最近のリカレントニューラルネットワーク(RNN)の進歩を組み合わせた知識追跡手法を提案する。
提案するemphDynEmbフレームワークは,概念やスキルのタグ情報を使わずに,学生の知識の追跡を可能にする。
論文 参考訳(メタデータ) (2020-05-18T21:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。