論文の概要: RKT : Relation-Aware Self-Attention for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2008.12736v1
- Date: Fri, 28 Aug 2020 16:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:21:28.104899
- Title: RKT : Relation-Aware Self-Attention for Knowledge Tracing
- Title(参考訳): RKT : 知識追跡のための関係認識型自己認識
- Authors: Shalini Pandey, Jaideep Srivastava
- Abstract要約: 知識追跡のためのリレーショナル・アウェア・セルフアテンション・モデル(RKT)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
我々のモデルは最先端の知識追跡手法より優れている。
- 参考スコア(独自算出の注目度): 2.9778695679660188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The world has transitioned into a new phase of online learning in response to
the recent Covid19 pandemic. Now more than ever, it has become paramount to
push the limits of online learning in every manner to keep flourishing the
education system. One crucial component of online learning is Knowledge Tracing
(KT). The aim of KT is to model student's knowledge level based on their
answers to a sequence of exercises referred as interactions. Students acquire
their skills while solving exercises and each such interaction has a distinct
impact on student ability to solve a future exercise. This \textit{impact} is
characterized by 1) the relation between exercises involved in the interactions
and 2) student forget behavior. Traditional studies on knowledge tracing do not
explicitly model both the components jointly to estimate the impact of these
interactions. In this paper, we propose a novel Relation-aware self-attention
model for Knowledge Tracing (RKT). We introduce a relation-aware self-attention
layer that incorporates the contextual information. This contextual information
integrates both the exercise relation information through their textual content
as well as student performance data and the forget behavior information through
modeling an exponentially decaying kernel function. Extensive experiments on
three real-world datasets, among which two new collections are released to the
public, show that our model outperforms state-of-the-art knowledge tracing
methods. Furthermore, the interpretable attention weights help visualize the
relation between interactions and temporal patterns in the human learning
process.
- Abstract(参考訳): 世界は、最近のCovid19パンデミックに対応して、オンライン学習の新しい段階に移行した。
今や、あらゆる方法でオンライン学習の限界を押し広げて、教育システムを栄え続けることが最重要になっている。
オンライン学習の重要な構成要素は知識追跡(KT)である。
KTの目的は、インタラクションと呼ばれる一連のエクササイズに対する回答に基づいて、学生の知識レベルをモデル化することである。
学生は運動を解きながらスキルを身につけ、それぞれの相互作用は将来の運動を解く生徒の能力に明確な影響を与える。
この \textit{impact} の特徴は
1)相互作用に関わる運動と相互作用の関係
2) 生徒は行動を忘れる。
知識追跡に関する伝統的な研究は、これらの相互作用の影響を推定するために、両方のコンポーネントを共同でモデル化するものではない。
本稿では,RKT(Relation-aware self-attention model for Knowledge Tracing)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
この文脈情報は、指数関数的に減衰するカーネル関数をモデル化することにより、それらのテキストコンテンツを通しての運動関係情報と学生のパフォーマンスデータと忘れ行動情報とを統合する。
実世界の3つのデータセットに対する大規模な実験では、2つの新しいコレクションが一般に公開されている。
さらに、解釈可能な注意重みは、人間の学習過程における相互作用と時間的パターンの関係を可視化するのに役立つ。
関連論文リスト
- Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Quiz-based Knowledge Tracing [61.9152637457605]
知識追跡は、学習相互作用に基づいて個人の進化する知識状態を評価することを目的としている。
QKTは、既存の方法と比較して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-05T12:48:42Z) - A Message Passing Perspective on Learning Dynamics of Contrastive
Learning [60.217972614379065]
特徴空間に対照的な目的を同等に配置すると、その学習力学は解釈可能な形式を持つことを示す。
この視点はまた、対照的な学習とメッセージパッシンググラフニューラルネットワーク(MP-GNN)の間の興味深い関係を確立する。
論文 参考訳(メタデータ) (2023-03-08T08:27:31Z) - Transition-Aware Multi-Activity Knowledge Tracing [2.9778695679660188]
知識追跡は、学生の学習活動のシーケンスから学生の知識状態をモデル化することを目的としている。
現在のKTソリューションは、非評価学習活動からの学習をモデル化するのに適していない。
遷移対応多行動知識追跡(TAMKOT)を提案する。
論文 参考訳(メタデータ) (2023-01-26T21:49:24Z) - DGEKT: A Dual Graph Ensemble Learning Method for Knowledge Tracing [20.71423236895509]
知識追跡のための新しいデュアルグラフアンサンブル学習法(DGEKT)を提案する。
DGEKTは、学生の学習相互作用の二重グラフ構造を確立し、不均一な運動概念の関連を捉える。
オンライン知識蒸留は、より優れたモデリング能力のための追加の監督として、すべての訓練に関する予測を提供する。
論文 参考訳(メタデータ) (2022-11-23T11:37:35Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Deep Graph Memory Networks for Forgetting-Robust Knowledge Tracing [5.648636668261282]
本稿では,新しい知識追跡モデル,すなわちemphDeep Graph Memory Network(DGMN)を提案する。
このモデルでは、忘れる動作を捉えるために、注意記憶構造に忘れるゲーティング機構を組み込む。
このモデルは動的潜在概念グラフから潜在概念間の関係を学習する能力を有する。
論文 参考訳(メタデータ) (2021-08-18T12:04:10Z) - GIKT: A Graph-based Interaction Model for Knowledge Tracing [36.07642261246016]
上記の問題に対処するために,知識追跡のためのグラフベースインタラクションモデルを提案する。
より具体的には、GIKTはグラフ畳み込みネットワーク(GCN)を使用して、質問スキル相関を実質的に組み込んでいる。
3つのデータセットの実験では、GIKTが新しい最先端のパフォーマンスを実現し、少なくとも1%の絶対AUC改善を実現している。
論文 参考訳(メタデータ) (2020-09-13T12:50:32Z) - HGKT: Introducing Hierarchical Exercise Graph for Knowledge Tracing [19.416373111152613]
本稿では,HGKTと呼ばれる階層的グラフ知識追跡モデルを提案する。
具体的には,学習依存度をモデル化可能な階層的なエクササイズグラフを構築するために,問題スキーマの概念を導入する。
テスト段階では、知識の熟達と問題スキーマの推移を辿ることのできるK&S診断行列を提示する。
論文 参考訳(メタデータ) (2020-06-13T07:09:52Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。