論文の概要: RKT : Relation-Aware Self-Attention for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2008.12736v1
- Date: Fri, 28 Aug 2020 16:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:21:28.104899
- Title: RKT : Relation-Aware Self-Attention for Knowledge Tracing
- Title(参考訳): RKT : 知識追跡のための関係認識型自己認識
- Authors: Shalini Pandey, Jaideep Srivastava
- Abstract要約: 知識追跡のためのリレーショナル・アウェア・セルフアテンション・モデル(RKT)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
我々のモデルは最先端の知識追跡手法より優れている。
- 参考スコア(独自算出の注目度): 2.9778695679660188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The world has transitioned into a new phase of online learning in response to
the recent Covid19 pandemic. Now more than ever, it has become paramount to
push the limits of online learning in every manner to keep flourishing the
education system. One crucial component of online learning is Knowledge Tracing
(KT). The aim of KT is to model student's knowledge level based on their
answers to a sequence of exercises referred as interactions. Students acquire
their skills while solving exercises and each such interaction has a distinct
impact on student ability to solve a future exercise. This \textit{impact} is
characterized by 1) the relation between exercises involved in the interactions
and 2) student forget behavior. Traditional studies on knowledge tracing do not
explicitly model both the components jointly to estimate the impact of these
interactions. In this paper, we propose a novel Relation-aware self-attention
model for Knowledge Tracing (RKT). We introduce a relation-aware self-attention
layer that incorporates the contextual information. This contextual information
integrates both the exercise relation information through their textual content
as well as student performance data and the forget behavior information through
modeling an exponentially decaying kernel function. Extensive experiments on
three real-world datasets, among which two new collections are released to the
public, show that our model outperforms state-of-the-art knowledge tracing
methods. Furthermore, the interpretable attention weights help visualize the
relation between interactions and temporal patterns in the human learning
process.
- Abstract(参考訳): 世界は、最近のCovid19パンデミックに対応して、オンライン学習の新しい段階に移行した。
今や、あらゆる方法でオンライン学習の限界を押し広げて、教育システムを栄え続けることが最重要になっている。
オンライン学習の重要な構成要素は知識追跡(KT)である。
KTの目的は、インタラクションと呼ばれる一連のエクササイズに対する回答に基づいて、学生の知識レベルをモデル化することである。
学生は運動を解きながらスキルを身につけ、それぞれの相互作用は将来の運動を解く生徒の能力に明確な影響を与える。
この \textit{impact} の特徴は
1)相互作用に関わる運動と相互作用の関係
2) 生徒は行動を忘れる。
知識追跡に関する伝統的な研究は、これらの相互作用の影響を推定するために、両方のコンポーネントを共同でモデル化するものではない。
本稿では,RKT(Relation-aware self-attention model for Knowledge Tracing)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
この文脈情報は、指数関数的に減衰するカーネル関数をモデル化することにより、それらのテキストコンテンツを通しての運動関係情報と学生のパフォーマンスデータと忘れ行動情報とを統合する。
実世界の3つのデータセットに対する大規模な実験では、2つの新しいコレクションが一般に公開されている。
さらに、解釈可能な注意重みは、人間の学習過程における相互作用と時間的パターンの関係を可視化するのに役立つ。
関連論文リスト
- Temporal Graph Memory Networks For Knowledge Tracing [0.40964539027092906]
本稿では,深部時間グラフメモリネットワークを用いて,知識状態の関連性と時間的ダイナミクスを協調的にモデル化する手法を提案する。
また,グラフメモリモジュール上の時間減衰制約を用いて,学生の忘れ行動を表現する汎用手法を提案する。
論文 参考訳(メタデータ) (2024-09-23T07:47:02Z) - DyGKT: Dynamic Graph Learning for Knowledge Tracing [27.886870568131254]
本研究の動機は,(1) 記録に回答する学生の規模が常に増大していること,(2) 記録間の時間間隔のセマンティクスが異なること,(3) 学生,質問,概念の関係が進化していること,の3つである。
この線に沿って,動的グラフに基づく知識追跡モデル,すなわちDyGKTを提案する。
特に、知識追跡のための連続時間動的問合せグラフは、無限に増加する応答行動に対処するために構築される。
論文 参考訳(メタデータ) (2024-07-30T13:43:32Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - A Message Passing Perspective on Learning Dynamics of Contrastive
Learning [60.217972614379065]
特徴空間に対照的な目的を同等に配置すると、その学習力学は解釈可能な形式を持つことを示す。
この視点はまた、対照的な学習とメッセージパッシンググラフニューラルネットワーク(MP-GNN)の間の興味深い関係を確立する。
論文 参考訳(メタデータ) (2023-03-08T08:27:31Z) - DGEKT: A Dual Graph Ensemble Learning Method for Knowledge Tracing [20.71423236895509]
知識追跡のための新しいデュアルグラフアンサンブル学習法(DGEKT)を提案する。
DGEKTは、学生の学習相互作用の二重グラフ構造を確立し、不均一な運動概念の関連を捉える。
オンライン知識蒸留は、より優れたモデリング能力のための追加の監督として、すべての訓練に関する予測を提供する。
論文 参考訳(メタデータ) (2022-11-23T11:37:35Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing [5.648636668261282]
本稿では,新しい知識追跡モデル,すなわちemphDeep Graph Memory Network(DGMN)を提案する。
このモデルでは、忘れる動作を捉えるために、注意記憶構造に忘れるゲーティング機構を組み込む。
このモデルは動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
論文 参考訳(メタデータ) (2021-08-18T12:04:10Z) - GIKT: A Graph-based Interaction Model for Knowledge Tracing [36.07642261246016]
上記の問題に対処するために,知識追跡のためのグラフベースインタラクションモデルを提案する。
より具体的には、GIKTはグラフ畳み込みネットワーク(GCN)を使用して、質問スキル相関を実質的に組み込んでいる。
3つのデータセットの実験では、GIKTが新しい最先端のパフォーマンスを実現し、少なくとも1%の絶対AUC改善を実現している。
論文 参考訳(メタデータ) (2020-09-13T12:50:32Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。