論文の概要: MonaCoBERT: Monotonic attention based ConvBERT for Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2208.12615v2
- Date: Wed, 7 Sep 2022 09:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:45:25.673620
- Title: MonaCoBERT: Monotonic attention based ConvBERT for Knowledge Tracing
- Title(参考訳): MonaCoBERT:知識追跡のためのモノトニックアテンションベースのConvBERT
- Authors: Unggi Lee, Yonghyun Park, Yujin Kim, Seongyune Choi, Hyeoncheol Kim
- Abstract要約: 知識追跡は、過去のパフォーマンスデータセットに基づいて、学生の将来のパフォーマンスを予測する研究分野である。
MonaCoBERTは、ほとんどのベンチマークデータセットで最高のパフォーマンスを達成し、大きな解釈性を持つ。
- 参考スコア(独自算出の注目度): 3.187381965457262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) is a field of study that predicts the future
performance of students based on prior performance datasets collected from
educational applications such as intelligent tutoring systems, learning
management systems, and online courses. Some previous studies on KT have
concentrated only on the interpretability of the model, whereas others have
focused on enhancing the performance. Models that consider both
interpretability and the performance improvement have been insufficient.
Moreover, models that focus on performance improvements have not shown an
overwhelming performance compared with existing models. In this study, we
propose MonaCoBERT, which achieves the best performance on most benchmark
datasets and has significant interpretability. MonaCoBERT uses a BERT-based
architecture with monotonic convolutional multihead attention, which reflects
forgetting behavior of the students and increases the representation power of
the model. We can also increase the performance and interpretability using a
classical test-theory-based (CTT-based) embedding strategy that considers the
difficulty of the question. To determine why MonaCoBERT achieved the best
performance and interpret the results quantitatively, we conducted ablation
studies and additional analyses using Grad-CAM, UMAP, and various visualization
techniques. The analysis results demonstrate that both attention components
complement one another and that CTT-based embedding represents information on
both global and local difficulties. We also demonstrate that our model
represents the relationship between concepts.
- Abstract(参考訳): 知識追跡(KT)は、知的学習システム、学習管理システム、オンラインコースなどの教育アプリケーションから収集された事前のパフォーマンスデータセットに基づいて、学生の将来のパフォーマンスを予測する学問分野である。
KTに関する以前の研究はモデルの解釈可能性にのみ集中しているが、他の研究は性能の向上に重点を置いている。
解釈可能性と性能改善の両方を考慮するモデルは不十分である。
さらに、パフォーマンス改善に焦点を当てたモデルは、既存のモデルと比べて圧倒的なパフォーマンスを示していない。
本研究では,ほとんどのベンチマークデータセット上で最高の性能を達成し,高い解釈性を有するMonaCoBERTを提案する。
MonaCoBERTは、単調な畳み込み型マルチヘッドアテンションを備えたBERTベースのアーキテクチャを使用して、学生の忘れられた振る舞いを反映し、モデルの表現力を高める。
また,問題の難易度を考慮に入れた古典的テスト理論(CTT)の埋め込み戦略を用いて,性能と解釈可能性を向上させることができる。
モナコベルトがベストパフォーマンスを達成した理由を判定し, 定量的に解析するため, grad-cam, umap, および各種可視化技術を用いてアブレーション研究および追加分析を行った。
分析の結果,注意要素が相互補完し,cttに基づく埋め込みがグローバルおよび局所的困難に関する情報であることがわかった。
モデルが概念間の関係を表すことも示しています。
関連論文リスト
- DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - From Mimicking to Integrating: Knowledge Integration for Pre-Trained
Language Models [55.137869702763375]
本稿では,新しいPLM再利用パラダイムであるKnowledge Integration(KI)について検討する。
KIは,異なる分類問題に特化している教師-PLMの知識を,多種多様な学生モデルにマージすることを目的としている。
次に,モデル不確かさを意識した知識統合(MUKI)フレームワークを設計し,学生の黄金の監督を回復する。
論文 参考訳(メタデータ) (2022-10-11T07:59:08Z) - Feeding What You Need by Understanding What You Learned [54.400455868448695]
Machine Reading (MRC)は、与えられたテキストパスを理解し、それに基づいて質問に答える機能を明らかにする。
MRCの既存の研究は、Exact Matchのようなメトリクスによって評価されたパフォーマンスを改善するために、大規模なモデルとコーパスに大きく依存している。
モデル機能とデータ特性の深い理解は、適切なトレーニングデータでモデルをフィードするのに役立ちます。
論文 参考訳(メタデータ) (2022-03-05T14:15:59Z) - BloomNet: A Robust Transformer based model for Bloom's Learning Outcome
Classification [2.8014992300800103]
ブルーム分類学(Bloom taxonomy)は、学習目標を認知、感情、精神運動の3つのレベルに分類するパラダイムである。
コース学習結果(CLO)を分類するために,言語情報と意味情報をキャプチャする,BloomNetというトランスフォーマーベースモデルを提案する。
論文 参考訳(メタデータ) (2021-08-16T17:31:44Z) - Model Embedding Model-Based Reinforcement Learning [4.566180616886624]
モデルベース強化学習(MBRL)は、モデルフリー強化学習(MFRL)よりもサンプル効率が優れていることを示す。
しかし、データ生成の容易さとモデルのバイアスとの間には、依然としてトレードオフがある。
本稿では,確率的強化学習の枠組みとして,シンプルでエレガントなモデル埋め込み型強化学習(MEMB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T15:10:28Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。