論文の概要: Application of Deep Self-Attention in Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2105.07909v1
- Date: Mon, 17 May 2021 14:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:38:11.053128
- Title: Application of Deep Self-Attention in Knowledge Tracing
- Title(参考訳): 知識追跡における深層自己認識の応用
- Authors: Junhao Zeng, Qingchun Zhang, Ning Xie, Bochun Yang
- Abstract要約: 本稿では,中国の多くの大学の学生が使用しているオンラインアセスメントシステムであるPTAのデータをもとに,Deep Self-Attentive Knowledge Tracing (DSAKT)を提案する。
PTAのデータの実験では、DSAKTは知識追跡において他のモデルよりも2.1%向上している。
- 参考スコア(独自算出の注目度): 2.5852720579998336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of intelligent tutoring system has greatly influenced the way
students learn and practice, which increases their learning efficiency. The
intelligent tutoring system must model learners' mastery of the knowledge
before providing feedback and advices to learners, so one class of algorithm
called "knowledge tracing" is surely important. This paper proposed Deep
Self-Attentive Knowledge Tracing (DSAKT) based on the data of PTA, an online
assessment system used by students in many universities in China, to help these
students learn more efficiently. Experimentation on the data of PTA shows that
DSAKT outperforms the other models for knowledge tracing an improvement of AUC
by 2.1% on average, and this model also has a good performance on the ASSIST
dataset.
- Abstract(参考訳): 知的学習システムの開発は、学生の学習と実践の仕方に大きな影響を与え、学習効率が向上した。
知的指導システムは,学習者にフィードバックやアドバイスを与える前に,学習者の知識の熟達をモデル化しなければならない。
本論文は,中国の多くの大学の学生によるオンラインアセスメントシステムであるPTAのデータをもとに,これらの学生がより効率的に学習できるように,Deep Self-Attentive Knowledge Tracing (DSAKT)を提案する。
PTAのデータを用いた実験では、DSAKTはAUCの改善を平均2.1%向上させる知識追跡のために他のモデルよりも優れており、このモデルはASSISTデータセットでも優れた性能を示している。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Bridging the Gap: Unpacking the Hidden Challenges in Knowledge Distillation for Online Ranking Systems [13.437632008276552]
知識蒸留(KD)は、大きなモデルをより小さく、より効率的なモデルに圧縮するための強力なアプローチである。
本稿では,Google内の複数の大規模パーソナライズされたビデオレコメンデーションシステム上で,堅牢なKDシステムを構築し,厳密に評価する。
論文 参考訳(メタデータ) (2024-08-26T23:01:48Z) - Enhancing Deep Knowledge Tracing via Diffusion Models for Personalized Adaptive Learning [1.2248793682283963]
本研究は、学習記録におけるデータ不足問題に取り組み、パーソナライズされた適応学習(PAL)のためのDKT性能を向上させることを目的とする。
拡散モデルであるTabDDPMを用いて合成教育記録を生成し、DKTの強化のためのトレーニングデータを強化する。
実験結果から,TabDDPMによるAI生成データにより,DKTの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-25T00:23:20Z) - Lessons Learned from Designing an Open-Source Automated Feedback System
for STEM Education [5.326069675013602]
RATsAppはオープンソースの自動フィードバックシステム(AFS)で、フォーマティブフィードバックなどの研究ベースの機能を組み込んでいる。
このシステムは、数学的能力、表現能力、データリテラシーなどの中核的なSTEM能力に焦点を当てている。
オープンソースプラットフォームであるRATsAppは、継続的な開発へのパブリックコントリビューションを奨励し、教育ツールを改善するための共同アプローチを促進する。
論文 参考訳(メタデータ) (2024-01-19T07:13:07Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Adaptive Learning Path Navigation Based on Knowledge Tracing and
Reinforcement Learning [2.0263791972068628]
本稿では,適応学習経路ナビゲーション(ALPN)システムについて紹介する。
ALPNシステムは、学生のニーズに合わせて学習経路を調整し、学習効率を大幅に向上させる。
実験結果から、ALPNシステムは、学習結果の最大化において、従来の研究よりも8.2%優れていたことが示されている。
論文 参考訳(メタデータ) (2023-05-08T05:54:29Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - A Closer Look at Knowledge Distillation with Features, Logits, and
Gradients [81.39206923719455]
知識蒸留(KD)は、学習した知識をあるニューラルネットワークモデルから別のニューラルネットワークモデルに転送するための重要な戦略である。
この研究は、古典的なKL分割基準を異なる知識源で近似することで、一連の知識蒸留戦略を動機付ける新しい視点を提供する。
分析の結果,ロジットは一般的により効率的な知識源であり,十分な特徴次元を持つことがモデル設計に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2022-03-18T21:26:55Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Role-Wise Data Augmentation for Knowledge Distillation [48.115719640111394]
知識蒸留(KD)は、ある機械学習モデルから学んだ知識を別の機械学習モデルに転送する一般的な方法である。
我々は、知識蒸留を促進するために、異なる役割を持つデータ増強剤を設計する。
特別に調整されたデータポイントが、教師の知識をより効果的に生徒に示せることを実証的に見出した。
論文 参考訳(メタデータ) (2020-04-19T14:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。