論文の概要: MonaCoBERT: Monotonic attention based ConvBERT for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2208.12615v1
- Date: Fri, 19 Aug 2022 00:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:10:14.029603
- Title: MonaCoBERT: Monotonic attention based ConvBERT for Knowledge Tracing
- Title(参考訳): MonaCoBERT:知識追跡のためのモノトニックアテンションベースのConvBERT
- Authors: Unggi Lee, Yonghyun Park, Yujin Kim, Seongyune Choi, Hyeoncheol Kim
- Abstract要約: 知識追跡は、過去のパフォーマンスデータセットに基づいて、学生の将来のパフォーマンスを予測する研究分野である。
MonaCoBERTは、ほとんどのベンチマークデータセットで最高のパフォーマンスを達成し、大きな解釈性を持つ。
- 参考スコア(独自算出の注目度): 3.187381965457262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) is a field of study that predicts the future
performance of students based on prior performance datasets collected from
educational applications such as intelligent tutoring systems, learning
management systems, and online courses. Some previous studies on KT have
concentrated only on the interpretability of the model, whereas others have
focused on enhancing the performance. Models that consider both
interpretability and the performance improvement have been insufficient.
Moreover, models that focus on performance improvements have not shown an
overwhelming performance compared with existing models. In this study, we
propose MonaCoBERT, which achieves the best performance on most benchmark
datasets and has significant interpretability. MonaCoBERT uses a BERT-based
architecture with monotonic convolutional multihead attention, which reflects
forgetting behavior of the students and increases the representation power of
the model. We can also increase the performance and interpretability using a
classical test-theory-based (CTT-based) embedding strategy that considers the
difficulty of the question. To determine why MonaCoBERT achieved the best
performance and interpret the results quantitatively, we conducted ablation
studies and additional analyses using Grad-CAM, UMAP, and various visualization
techniques. The analysis results demonstrate that both attention components
complement one another and that CTT-based embedding represents information on
both global and local difficulties. We also demonstrate that our model
represents the relationship between concepts.
- Abstract(参考訳): 知識追跡(KT)は、知的学習システム、学習管理システム、オンラインコースなどの教育アプリケーションから収集された事前のパフォーマンスデータセットに基づいて、学生の将来のパフォーマンスを予測する学問分野である。
KTに関する以前の研究はモデルの解釈可能性にのみ集中しているが、他の研究は性能の向上に重点を置いている。
解釈可能性と性能改善の両方を考慮するモデルは不十分である。
さらに、パフォーマンス改善に焦点を当てたモデルは、既存のモデルと比べて圧倒的なパフォーマンスを示していない。
本研究では,ほとんどのベンチマークデータセット上で最高の性能を達成し,高い解釈性を有するMonaCoBERTを提案する。
MonaCoBERTは、単調な畳み込み型マルチヘッドアテンションを備えたBERTベースのアーキテクチャを使用して、学生の忘れられた振る舞いを反映し、モデルの表現力を高める。
また,問題の難易度を考慮に入れた古典的テスト理論(CTT)の埋め込み戦略を用いて,性能と解釈可能性を向上させることができる。
モナコベルトがベストパフォーマンスを達成した理由を判定し, 定量的に解析するため, grad-cam, umap, および各種可視化技術を用いてアブレーション研究および追加分析を行った。
分析の結果,注意要素が相互補完し,cttに基づく埋め込みがグローバルおよび局所的困難に関する情報であることがわかった。
モデルが概念間の関係を表すことも示しています。
関連論文リスト
- Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Exploring the Impact of Instruction Data Scaling on Large Language
Models: An Empirical Study on Real-World Use Cases [17.431381376675432]
本稿では,命令データのスケールの異なる命令データに対して,命令チューニングに基づく大規模言語モデルの性能について検討する。
ベースモデルとしてBloomz-7B1-mtを用いると、命令データの量を増やすだけで、オープン・エンド・ジェネレーションのようなタスクが継続的に改善されることが示される。
本稿では,高品質なトレーニングデータ,スケールベースモデル,ハードタスクに特化したトレーニング手法を効果的に選択する,といった将来的な研究方向を提案する。
論文 参考訳(メタデータ) (2023-03-26T14:49:37Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z) - Feeding What You Need by Understanding What You Learned [54.400455868448695]
Machine Reading (MRC)は、与えられたテキストパスを理解し、それに基づいて質問に答える機能を明らかにする。
MRCの既存の研究は、Exact Matchのようなメトリクスによって評価されたパフォーマンスを改善するために、大規模なモデルとコーパスに大きく依存している。
モデル機能とデータ特性の深い理解は、適切なトレーニングデータでモデルをフィードするのに役立ちます。
論文 参考訳(メタデータ) (2022-03-05T14:15:59Z) - BloomNet: A Robust Transformer based model for Bloom's Learning Outcome
Classification [2.8014992300800103]
ブルーム分類学(Bloom taxonomy)は、学習目標を認知、感情、精神運動の3つのレベルに分類するパラダイムである。
コース学習結果(CLO)を分類するために,言語情報と意味情報をキャプチャする,BloomNetというトランスフォーマーベースモデルを提案する。
論文 参考訳(メタデータ) (2021-08-16T17:31:44Z) - BKT-LSTM: Efficient Student Modeling for knowledge tracing and student
performance prediction [0.24366811507669117]
BKT-LSTMと呼ばれる効率的な学生モデルを提案する。
bktによって評価された個々のtextitskill mastery、k-meansクラスタリングとtextitproblemの難易度によって検出されるtextitability profile(スキル間の学習転送)である。
論文 参考訳(メタデータ) (2020-12-22T18:05:36Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Model Embedding Model-Based Reinforcement Learning [4.566180616886624]
モデルベース強化学習(MBRL)は、モデルフリー強化学習(MFRL)よりもサンプル効率が優れていることを示す。
しかし、データ生成の容易さとモデルのバイアスとの間には、依然としてトレードオフがある。
本稿では,確率的強化学習の枠組みとして,シンプルでエレガントなモデル埋め込み型強化学習(MEMB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T15:10:28Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。