論文の概要: Do we need to go Deep? Knowledge Tracing with Big Data
- arxiv url: http://arxiv.org/abs/2101.08349v1
- Date: Wed, 20 Jan 2021 22:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 01:58:40.532629
- Title: Do we need to go Deep? Knowledge Tracing with Big Data
- Title(参考訳): 深く行く必要があるのか?
ビッグデータを用いた知識追跡
- Authors: Varun Mandalapu, Jiaqi Gong and Lujie Chen
- Abstract要約: 教育分野で公開されている最大の学生インタラクションデータセットであるEdNetを使用して、深層モデルと従来のモデルの両方が将来の学生のパフォーマンスを正確に予測する方法を理解しています。
我々の研究は、慎重に設計された特徴を持つロジスティック回帰モデルが広範な実験から深いモデルよりも優れていることを観察する。
- 参考スコア(独自算出の注目度): 5.218882272051637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive Educational Systems (IES) enabled researchers to trace student
knowledge in different skills and provide recommendations for a better learning
path. To estimate the student knowledge and further predict their future
performance, the interest in utilizing the student interaction data captured by
IES to develop learner performance models is increasing rapidly. Moreover, with
the advances in computing systems, the amount of data captured by these IES
systems is also increasing that enables deep learning models to compete with
traditional logistic models and Markov processes. However, it is still not
empirically evident if these deep models outperform traditional models on the
current scale of datasets with millions of student interactions. In this work,
we adopt EdNet, the largest student interaction dataset publicly available in
the education domain, to understand how accurately both deep and traditional
models predict future student performances. Our work observes that logistic
regression models with carefully engineered features outperformed deep models
from extensive experimentation. We follow this analysis with interpretation
studies based on Locally Interpretable Model-agnostic Explanation (LIME) to
understand the impact of various features on best performing model
pre-dictions.
- Abstract(参考訳): インタラクティブ教育システム(IES)により、研究者は異なるスキルの学生の知識を追跡でき、より良い学習パスを推奨できる。
学生の知識を推定し,さらにパフォーマンスを予測するために,iesが取得した学生インタラクションデータを活用した学習者パフォーマンスモデルの開発に関心が急速に高まっている。
さらに、コンピュータシステムの進歩に伴い、これらのiesシステムが取得するデータ量も増加し、ディープラーニングモデルが従来のロジスティックモデルやマルコフプロセスと競合するようになっている。
しかし、これらの深層モデルが、何百万もの学生の相互作用を持つデータセットの現在のスケールで従来のモデルを上回るかどうかは、まだ実証的に明らかではない。
本研究では,教育領域で公開されている最大規模の学生インタラクションデータセットであるednetを採用し,深層モデルと伝統的モデルの両方が将来の学生パフォーマンスをいかに正確に予測できるかを理解する。
我々の研究は、慎重に設計された特徴を持つロジスティック回帰モデルが広範な実験から深いモデルよりも優れていることを観察する。
この分析は,局所的に解釈可能なモデルに依存しない説明法(LIME)に基づく解釈研究を用いて,様々な特徴が最高のモデル予測に与える影響を理解する。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - CoDBench: A Critical Evaluation of Data-driven Models for Continuous
Dynamical Systems [8.410938527671341]
微分方程式を解くための11の最先端データ駆動モデルからなる総合ベンチマークスイートであるCodBenchを紹介する。
具体的には、Viz.、フィードフォワードニューラルネットワーク、ディープオペレータ回帰モデル、周波数ベースのニューラル演算子、トランスフォーマーアーキテクチャの4つの異なるカテゴリを評価する。
我々は、学習におけるオペレータの能力、ゼロショット超解像、データ効率、ノイズに対する堅牢性、計算効率を評価する広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-02T21:27:54Z) - Deep learning models for price forecasting of financial time series: A
review of recent advancements: 2020-2022 [6.05458608266581]
ディープラーニングモデルは、価格予測タスクのための従来の統計モデルと機械学習モデルを置き換えるものだ。
このレビューは、ディープラーニングに基づく予測モデルについて深く掘り下げ、モデルアーキテクチャ、実践的応用、およびそれぞれの利点と欠点に関する情報を提示する。
この貢献には、価格予測のための複雑な構造を持つディープラーニングモデルの有効性を検討するなど、将来の研究に向けた潜在的方向性も含まれている。
論文 参考訳(メタデータ) (2023-04-21T03:46:09Z) - Multi-granulariy Time-based Transformer for Knowledge Tracing [9.788039182463768]
過去のテストスコアを含む学生の過去のデータを活用して、各学生にパーソナライズされたモデルを作成します。
次に、これらのモデルを使用して、将来のパフォーマンスを所定のテストで予測します。
論文 参考訳(メタデータ) (2023-04-11T14:46:38Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。