論文の概要: Bi-CLKT: Bi-Graph Contrastive Learning based Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2201.09020v1
- Date: Sat, 22 Jan 2022 11:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:14:12.060156
- Title: Bi-CLKT: Bi-Graph Contrastive Learning based Knowledge Tracing
- Title(参考訳): bi-clkt:複グラフコントラスト学習に基づく知識トレース
- Authors: Xiangyu Song, Jianxin Li, Qi Lei, Wei Zhao, Yunliang Chen, Ajmal Mian
- Abstract要約: 知識追跡の目的は、学生が関連する演習の歴史的学習に基づいて、いかにして概念を習得したかを推定することである。
近年のディープラーニングの台頭に伴い、Deep Knowledge Tracingでは、リカレントニューラルネットワーク(RNN)を使用して、このタスクをある程度の成功に導いた。
他の研究では、グラフニューラルネットワーク(GNN)を導入して、大幅な改善を実現するためにタスクを再定義しようと試みている。
本稿では,これらの制約に対処するため,Bi-Graph Contrastive Learning based Knowledge Tracing (Bi-CLKT)を提案する。
- 参考スコア(独自算出の注目度): 39.92424205497689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of Knowledge Tracing (KT) is to estimate how well students have
mastered a concept based on their historical learning of related exercises. The
benefit of knowledge tracing is that students' learning plans can be better
organised and adjusted, and interventions can be made when necessary. With the
recent rise of deep learning, Deep Knowledge Tracing (DKT) has utilised
Recurrent Neural Networks (RNNs) to accomplish this task with some success.
Other works have attempted to introduce Graph Neural Networks (GNNs) and
redefine the task accordingly to achieve significant improvements. However,
these efforts suffer from at least one of the following drawbacks: 1) they pay
too much attention to details of the nodes rather than to high-level semantic
information; 2) they struggle to effectively establish spatial associations and
complex structures of the nodes; and 3) they represent either concepts or
exercises only, without integrating them. Inspired by recent advances in
self-supervised learning, we propose a Bi-Graph Contrastive Learning based
Knowledge Tracing (Bi-CLKT) to address these limitations. Specifically, we
design a two-layer contrastive learning scheme based on an
"exercise-to-exercise" (E2E) relational subgraph. It involves node-level
contrastive learning of subgraphs to obtain discriminative representations of
exercises, and graph-level contrastive learning to obtain discriminative
representations of concepts. Moreover, we designed a joint contrastive loss to
obtain better representations and hence better prediction performance. Also, we
explored two different variants, using RNN and memory-augmented neural networks
as the prediction layer for comparison to obtain better representations of
exercises and concepts respectively. Extensive experiments on four real-world
datasets show that the proposed Bi-CLKT and its variants outperform other
baseline models.
- Abstract(参考訳): 知識追跡(KT)の目的は、学生が関連する演習の歴史的学習に基づいて、いかにして概念を習得したかを推定することである。
知識追跡の利点は、学生の学習計画をより組織化し、調整し、必要に応じて介入することができることである。
近年のディープラーニングの台頭に伴い、Deep Knowledge Tracing(DKT)は、リカレントニューラルネットワーク(RNN)を使用して、このタスクをある程度の成功に導いた。
他の研究では、グラフニューラルネットワーク(GNN)を導入して、大幅な改善を実現するためにタスクを再定義しようと試みている。
しかし、これらの努力は下記の欠点の少なくとも1つに苦しむ。
1) 彼らは,高レベルの意味情報よりも,ノードの詳細に注意を払っている。
2)ノードの空間的関連や複雑な構造を効果的に確立するのに苦労する。
3)それらを統合することなく、概念または運動のみを表現する。
近年の自己教師型学習の進歩に触発されて,これらの制約に対処するためのBi-Graph Contrastive Learning based Knowledge Tracing (Bi-CLKT)を提案する。
具体的には,"exercise-to-exercise"(e2e)関係部分グラフに基づく2層コントラスト学習スキームを設計する。
これには、演習の識別的表現を得るために、グラフのノードレベルのコントラスト学習と、概念の識別的表現を得るためにグラフレベルのコントラスト学習が含まれる。
さらに,良好な表現と予測性能を得るために,協調的なコントラスト損失を設計した。
また、RNNとメモリ拡張ニューラルネットワークをそれぞれ比較し、エクササイズと概念の表現性を改善するための予測層として用いた2つの異なる変種についても検討した。
4つの実世界のデータセットに対する大規模な実験は、提案されたBi-CLKTとその変種が他のベースラインモデルより優れていることを示している。
関連論文リスト
- Graph Contrastive Learning Meets Graph Meta Learning: A Unified Method
for Few-shot Node Tasks [68.60884768323739]
Contrastive Few-Shot Node Classification (COLA)を紹介する。
COLAはグラフ拡張を使用して意味的に類似したノードを識別し、ラベル情報を必要としないメタタスクの構築を可能にする。
広範な実験を通じて、我々は設計における各コンポーネントの本質を検証し、COLAが全てのタスクにおいて新しい最先端を達成することを実証する。
論文 参考訳(メタデータ) (2023-09-19T07:24:10Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Graph is Worth 1-bit Spikes: When Graph Contrastive Learning Meets
Spiking Neural Networks [35.35462459134551]
SpikeGCLは、グラフのバイナライズされた1ビット表現を学ぶための新しいフレームワークである。
SpikeGCLが完全精度に匹敵するものであることを示すための理論的保証を提供する。
論文 参考訳(メタデータ) (2023-05-30T16:03:11Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - STERLING: Synergistic Representation Learning on Bipartite Graphs [78.86064828220613]
二部グラフ表現学習の基本的な課題は、ノードの埋め込みを抽出する方法である。
最近の二部グラフSSL法は、正ノード対と負ノード対を識別することによって埋め込みを学習する対照的な学習に基づいている。
負のノードペアを持たないノード埋め込みを学習するための新しい相乗的表現学習モデル(STERling)を提案する。
論文 参考訳(メタデータ) (2023-01-25T03:21:42Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - SMARTQUERY: An Active Learning Framework for Graph Neural Networks
through Hybrid Uncertainty Reduction [25.77052028238513]
本稿では,ハイブリッド不確実性低減関数を用いて,ラベル付きノードの少ないグラフニューラルネットワークを学習するフレームワークを提案する。
ごく少数のラベル付きデータを用いた最先端技術に対する本手法の競合性能を実証する。
論文 参考訳(メタデータ) (2022-12-02T20:49:38Z) - DGEKT: A Dual Graph Ensemble Learning Method for Knowledge Tracing [20.71423236895509]
知識追跡のための新しいデュアルグラフアンサンブル学習法(DGEKT)を提案する。
DGEKTは、学生の学習相互作用の二重グラフ構造を確立し、不均一な運動概念の関連を捉える。
オンライン知識蒸留は、より優れたモデリング能力のための追加の監督として、すべての訓練に関する予測を提供する。
論文 参考訳(メタデータ) (2022-11-23T11:37:35Z) - Graph Neural Network with Curriculum Learning for Imbalanced Node
Classification [21.085314408929058]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフベースの学習タスクの新興技術である。
本研究では,ノードラベルの不均衡に対するGNNの脆弱性を明らかにする。
本稿では,2つのモジュールからなるカリキュラム学習(GNN-CL)を備えたグラフニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-05T10:46:11Z) - Exploiting Contextual Information with Deep Neural Networks [5.787117733071416]
文脈情報は、暗黙的かつ明示的な2つの根本的に異なる方法で活用できることを示します。
この論文では、文脈情報を2つの根本的に異なる方法で活用できることを示し、暗黙的かつ明示的に示す。
論文 参考訳(メタデータ) (2020-06-21T03:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。