論文の概要: DGEKT: A Dual Graph Ensemble Learning Method for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2211.12881v1
- Date: Wed, 23 Nov 2022 11:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:50:33.317250
- Title: DGEKT: A Dual Graph Ensemble Learning Method for Knowledge Tracing
- Title(参考訳): DGEKT:知識追跡のためのデュアルグラフアンサンブル学習法
- Authors: Chaoran Cui, Yumo Yao, Chunyun Zhang, Hebo Ma, Yuling Ma, Zhaochun
Ren, Chen Zhang, James Ko
- Abstract要約: 知識追跡のための新しいデュアルグラフアンサンブル学習法(DGEKT)を提案する。
DGEKTは、学生の学習相互作用の二重グラフ構造を確立し、不均一な運動概念の関連を捉える。
オンライン知識蒸留は、より優れたモデリング能力のための追加の監督として、すべての訓練に関する予測を提供する。
- 参考スコア(独自算出の注目度): 20.71423236895509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing aims to trace students' evolving knowledge states by
predicting their future performance on concept-related exercises. Recently,
some graph-based models have been developed to incorporate the relationships
between exercises to improve knowledge tracing, but only a single type of
relationship information is generally explored. In this paper, we present a
novel Dual Graph Ensemble learning method for Knowledge Tracing (DGEKT), which
establishes a dual graph structure of students' learning interactions to
capture the heterogeneous exercise-concept associations and interaction
transitions by hypergraph modeling and directed graph modeling, respectively.
To ensemble the dual graph models, we introduce the technique of online
knowledge distillation, due to the fact that although the knowledge tracing
model is expected to predict students' responses to the exercises related to
different concepts, it is optimized merely with respect to the prediction
accuracy on a single exercise at each step. With online knowledge distillation,
the dual graph models are adaptively combined to form a stronger teacher model,
which in turn provides its predictions on all exercises as extra supervision
for better modeling ability. In the experiments, we compare DGEKT against eight
knowledge tracing baselines on three benchmark datasets, and the results
demonstrate that DGEKT achieves state-of-the-art performance.
- Abstract(参考訳): 知識追跡は、学生の発達する知識状態を、概念に関連した演習で予測することによって追跡することを目的としている。
近年,知識追跡を改善するためにエクササイズ間の関係を取り入れたグラフベースモデルが開発されているが,一般的には1種類の関係情報のみを探索している。
本稿では,学生の学習インタラクションの双対グラフ構造を確立し,ハイパーグラフモデリングと有向グラフモデリングによる不均質な運動概念関係と相互作用遷移を捉えた,知識トレースのための双対グラフアンサンブル学習手法(dgekt)を提案する。
双対グラフモデルを合理化するために,オンライン知識蒸留の手法を導入する。知識追跡モデルは,異なる概念に関連した演習に対する学生の反応を予測することが期待されているが,各ステップにおける1回の運動における予測精度に対してのみ最適化されている。
オンライン知識蒸留では、二重グラフモデルは適応的に結合され、より強力な教師モデルを形成する。
実験では、DGEKTを3つのベンチマークデータセット上の8つの知識トレースベースラインと比較し、DGEKTが最先端の性能を達成することを示す。
関連論文リスト
- Frameless Graph Knowledge Distillation [27.831929635701886]
教師が提供したグラフ知識は,代数と幾何学の両方を通して学生モデルによって学習され,消化されるかを示す。
提案モデルでは,推論の高速化を維持しながら,教師モデルと同一あるいはそれ以上の学習精度を生成できる。
論文 参考訳(メタデータ) (2023-07-13T08:56:50Z) - Distilling Knowledge from Self-Supervised Teacher by Embedding Graph
Alignment [52.704331909850026]
我々は、自己指導型事前学習モデルから他の学生ネットワークへ知識を伝達するための新しい知識蒸留フレームワークを定式化した。
自己教師型学習におけるインスタンス識別の精神に触発され,特徴埋め込み空間におけるグラフ定式化によるインスタンスとインスタンスの関係をモデル化する。
蒸留方式は, 学生ネットワーク上での表現学習を促進するために, 自己指導型知識の伝達に柔軟に適用できる。
論文 参考訳(メタデータ) (2022-11-23T19:27:48Z) - I Know What You Do Not Know: Knowledge Graph Embedding via
Co-distillation Learning [16.723470319188102]
知識グラフの埋め込みは、実体と関係のベクトル表現を学習しようとする。
近年の研究では、事前学習された言語モデルを用いて、実体や関係のテキスト情報に基づいて埋め込みを学習している。
我々は,グラフ構造とテキスト情報の補完を利用するKG Embeddingの共蒸留学習手法であるCoLEを提案する。
論文 参考訳(メタデータ) (2022-08-21T07:34:37Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Learning Representations of Entities and Relations [0.0]
この論文は,リンク予測タスクに取り組むことを目的とした知識グラフ表現の改善に焦点を当てている。
最初のコントリビューションはHypERであり、リンク予測性能を単純化し改善する畳み込みモデルである。
第2のコントリビューションは比較的単純な線形モデルであるTuckERで、このモデルが導入された時点では、最先端のリンク予測性能が得られた。
第3の貢献は、双曲空間に埋め込まれた最初のマルチリレーショナルグラフ表現モデルである MuRP である。
論文 参考訳(メタデータ) (2022-01-31T09:24:43Z) - Graph-based Exercise- and Knowledge-Aware Learning Network for Student
Performance Prediction [8.21303828329009]
学生のスコアを正確に予測するためのグラフベースのエクササイズ・アンド・ナレッジ・アウェアラーニングネットワークを提案する。
我々は,エクササイズとナレッジ概念の熟達度を学習し,エクササイズとナレッジ概念の2倍の効果をモデル化する。
論文 参考訳(メタデータ) (2021-06-01T06:53:17Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - PPKE: Knowledge Representation Learning by Path-based Pre-training [43.41597219004598]
PPKEと呼ばれる知識埋め込み学習のためのパスベース事前学習モデルを提案する。
本モデルはリンク予測と関係予測タスクのためのいくつかのベンチマークデータセットで最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-07T10:29:30Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。