論文の概要: Application of Deep Self-Attention in Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2105.07909v1
- Date: Mon, 17 May 2021 14:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:38:11.053128
- Title: Application of Deep Self-Attention in Knowledge Tracing
- Title(参考訳): 知識追跡における深層自己認識の応用
- Authors: Junhao Zeng, Qingchun Zhang, Ning Xie, Bochun Yang
- Abstract要約: 本稿では,中国の多くの大学の学生が使用しているオンラインアセスメントシステムであるPTAのデータをもとに,Deep Self-Attentive Knowledge Tracing (DSAKT)を提案する。
PTAのデータの実験では、DSAKTは知識追跡において他のモデルよりも2.1%向上している。
- 参考スコア(独自算出の注目度): 2.5852720579998336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of intelligent tutoring system has greatly influenced the way
students learn and practice, which increases their learning efficiency. The
intelligent tutoring system must model learners' mastery of the knowledge
before providing feedback and advices to learners, so one class of algorithm
called "knowledge tracing" is surely important. This paper proposed Deep
Self-Attentive Knowledge Tracing (DSAKT) based on the data of PTA, an online
assessment system used by students in many universities in China, to help these
students learn more efficiently. Experimentation on the data of PTA shows that
DSAKT outperforms the other models for knowledge tracing an improvement of AUC
by 2.1% on average, and this model also has a good performance on the ASSIST
dataset.
- Abstract(参考訳): 知的学習システムの開発は、学生の学習と実践の仕方に大きな影響を与え、学習効率が向上した。
知的指導システムは,学習者にフィードバックやアドバイスを与える前に,学習者の知識の熟達をモデル化しなければならない。
本論文は,中国の多くの大学の学生によるオンラインアセスメントシステムであるPTAのデータをもとに,これらの学生がより効率的に学習できるように,Deep Self-Attentive Knowledge Tracing (DSAKT)を提案する。
PTAのデータを用いた実験では、DSAKTはAUCの改善を平均2.1%向上させる知識追跡のために他のモデルよりも優れており、このモデルはASSISTデータセットでも優れた性能を示している。
関連論文リスト
- Knowledge Distillation for Road Detection based on cross-model
Semi-Supervised Learning [19.882572508794915]
本稿では,知識蒸留と半教師付き学習手法を組み合わせた統合的アプローチを提案する。
このハイブリッドアプローチは、大規模モデルのロバストな機能を活用して、大規模な未ラベルデータを効果的に活用する。
半教師付き学習に基づく知識蒸留(SSLKD)アプローチは,学生モデルの性能向上を示す。
論文 参考訳(メタデータ) (2024-02-07T22:50:47Z) - Lessons Learned from Designing an Open-Source Automated Feedback System
for STEM Education [5.326069675013602]
RATsAppはオープンソースの自動フィードバックシステム(AFS)で、フォーマティブフィードバックなどの研究ベースの機能を組み込んでいる。
このシステムは、数学的能力、表現能力、データリテラシーなどの中核的なSTEM能力に焦点を当てている。
オープンソースプラットフォームであるRATsAppは、継続的な開発へのパブリックコントリビューションを奨励し、教育ツールを改善するための共同アプローチを促進する。
論文 参考訳(メタデータ) (2024-01-19T07:13:07Z) - Knowledge Tracing Challenge: Optimal Activity Sequencing for Students [0.9814642627359286]
知識追跡(きゅうがく、英: Knowledge Trace)は、個々の学習者による知識の獲得を評価・追跡する教育において用いられる手法である。
我々は,AAAI2023 Global Knowledge Tracing Challengeの一環として,新たにリリースされたデータセット上に2つの知識追跡アルゴリズムを実装した結果を示す。
論文 参考訳(メタデータ) (2023-11-13T16:28:34Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Adaptive Learning Path Navigation Based on Knowledge Tracing and
Reinforcement Learning [2.0263791972068628]
本稿では,適応学習経路ナビゲーション(ALPN)システムについて紹介する。
ALPNシステムは、学生のニーズに合わせて学習経路を調整し、学習効率を大幅に向上させる。
実験結果から、ALPNシステムは、学習結果の最大化において、従来の研究よりも8.2%優れていたことが示されている。
論文 参考訳(メタデータ) (2023-05-08T05:54:29Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Better Teacher Better Student: Dynamic Prior Knowledge for Knowledge
Distillation [70.92135839545314]
本研究では,教師の持つ特徴の一部を,特徴蒸留前の先行知識として統合した動的事前知識(DPK)を提案する。
DPKは,教員モデルと生徒モデルのパフォーマンスを正に相関させ,より大きな教員を適用することで生徒の精度をさらに高めることができる。
論文 参考訳(メタデータ) (2022-06-13T11:52:13Z) - A Closer Look at Knowledge Distillation with Features, Logits, and
Gradients [81.39206923719455]
知識蒸留(KD)は、学習した知識をあるニューラルネットワークモデルから別のニューラルネットワークモデルに転送するための重要な戦略である。
この研究は、古典的なKL分割基準を異なる知識源で近似することで、一連の知識蒸留戦略を動機付ける新しい視点を提供する。
分析の結果,ロジットは一般的により効率的な知識源であり,十分な特徴次元を持つことがモデル設計に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2022-03-18T21:26:55Z) - Learning Data Teaching Strategies Via Knowledge Tracing [5.648636668261282]
本稿では,学生モデルのためのデータ教育戦略を最適化する,知識強化データ教育(KADT)と呼ばれる新しい手法を提案する。
KADT法は、潜在学習概念の観点から、学生モデルの知識進捗を動的に捉えるための知識追跡モデルを含む。
我々は、知識追跡、感情分析、映画レコメンデーション、画像分類を含む4つの機械学習タスクにおいて、KADT法の性能を評価した。
論文 参考訳(メタデータ) (2021-11-13T10:10:48Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Role-Wise Data Augmentation for Knowledge Distillation [48.115719640111394]
知識蒸留(KD)は、ある機械学習モデルから学んだ知識を別の機械学習モデルに転送する一般的な方法である。
我々は、知識蒸留を促進するために、異なる役割を持つデータ増強剤を設計する。
特別に調整されたデータポイントが、教師の知識をより効果的に生徒に示せることを実証的に見出した。
論文 参考訳(メタデータ) (2020-04-19T14:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。