論文の概要: Scalable Early Childhood Reading Performance Prediction
- arxiv url: http://arxiv.org/abs/2412.10401v1
- Date: Thu, 05 Dec 2024 18:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-22 08:06:03.722883
- Title: Scalable Early Childhood Reading Performance Prediction
- Title(参考訳): 幼児期早期読解性能予測のスケーラブル化
- Authors: Zhongkai Shangguan, Zanming Huang, Eshed Ohn-Bar, Ola Ozernov-Palchik, Derek Kosty, Michael Stoolmiller, Hank Fien,
- Abstract要約: 将来の読み出し性能をモデル化し予測するための適切な教育データセットは存在しない。
本稿では,拡張コア読み取り命令ECRIデータセットを紹介する。
我々は、このデータセットを活用して、幼児期の教育パターンを認識する最先端の機械学習モデルの有効性を実証的に評価する。
- 参考スコア(独自算出の注目度): 5.413138072912236
- License:
- Abstract: Models for student reading performance can empower educators and institutions to proactively identify at-risk students, thereby enabling early and tailored instructional interventions. However, there are no suitable publicly available educational datasets for modeling and predicting future reading performance. In this work, we introduce the Enhanced Core Reading Instruction ECRI dataset, a novel large-scale longitudinal tabular dataset collected across 44 schools with 6,916 students and 172 teachers. We leverage the dataset to empirically evaluate the ability of state-of-the-art machine learning models to recognize early childhood educational patterns in multivariate and partial measurements. Specifically, we demonstrate a simple self-supervised strategy in which a Multi-Layer Perception (MLP) network is pre-trained over masked inputs to outperform several strong baselines while generalizing over diverse educational settings. To facilitate future developments in precise modeling and responsible use of models for individualized and early intervention strategies, our data and code are available at https://ecri-data.github.io/.
- Abstract(参考訳): 学生の読書パフォーマンスのモデルは、教育者や機関が積極的にリスクの高い生徒を識別し、早期かつ適切な教育介入を可能にする。
しかし、将来の読解性能をモデル化し予測するための教育データセットは公開されていない。
本研究では,6,916人の生徒と172人の教師を擁する44校にまたがる,新しい大規模縦表型データセットであるEnhanced Core Reading Instruction ECRIデータセットを紹介する。
我々は、このデータセットを利用して、多変量および部分的測定において、幼児期の教育パターンを認識する最先端の機械学習モデルの有効性を実証的に評価する。
具体的には,多層知覚(MLP)ネットワークをマスク入力で事前学習し,多様な教育環境を総合しながら,複数の強力なベースラインを上回りながら,その性能を向上する,シンプルな自己教師型戦略を実証する。
個別化および早期介入戦略のためのモデルの正確なモデリングと責任ある利用を促進するために、私たちのデータとコードはhttps://ecri-data.github.io/.com/で利用可能です。
関連論文リスト
- Personalized Knowledge Tracing through Student Representation Reconstruction and Class Imbalance Mitigation [32.52262417461651]
知識追跡とは、学習過程を分析することによって、学生の将来のパフォーマンスを予測する手法である。
近年の研究は、強力なディープニューラルネットワークを活用することで大きな進歩を遂げている。
パーソナライズされた知識追跡のための新しいアプローチであるPKTを提案する。
論文 参考訳(メタデータ) (2024-09-10T07:02:46Z) - Self-Regulated Data-Free Knowledge Amalgamation for Text Classification [9.169836450935724]
そこで我々は,複数の教師モデルから学習できる軽量な学生ネットワークを構築した。
そこで本研究では,各教師に適したテキストデータを生成するモデリングフレームワークSTRATANETを提案する。
本手法は,ラベルやドメインの異なる3つのベンチマークテキスト分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-16T21:13:30Z) - Enhancing the Performance of Automated Grade Prediction in MOOC using
Graph Representation Learning [3.4882560718166626]
大規模オープンオンラインコース(MOOCs)は、オンライン学習において急速に成長する現象として大きな注目を集めている。
現在の自動評価アプローチでは、下流タスクに関わるさまざまなエンティティ間の構造的リンクを見落としている。
我々は、大規模なMOOCデータセットのためのユニークな知識グラフを構築し、研究コミュニティに公開します。
論文 参考訳(メタデータ) (2023-10-18T19:27:39Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Multi-granulariy Time-based Transformer for Knowledge Tracing [9.788039182463768]
過去のテストスコアを含む学生の過去のデータを活用して、各学生にパーソナライズされたモデルを作成します。
次に、これらのモデルを使用して、将来のパフォーマンスを所定のテストで予測します。
論文 参考訳(メタデータ) (2023-04-11T14:46:38Z) - Large-scale Multi-Modal Pre-trained Models: A Comprehensive Survey [66.18478838828231]
マルチモーダルな事前訓練型大型モデルは近年ますます注目を集めている。
本稿では, 自然言語処理, コンピュータビジョン, 音声処理における従来の深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・深層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・高層・
次に,マルチモーダル・プレトレーニング・モデル(MM-PTM)のタスク定義,課題,メリットを紹介し,データ,目的,ネットワーク,知識強化による事前トレーニングに着目して,MM-PTMについて議論する。
論文 参考訳(メタデータ) (2023-02-20T15:34:03Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Predicting student performance using sequence classification with
time-based windows [1.5836913530330787]
本研究では,学生の行動データから得られた逐次的パターンに基づいて,正確な予測モデルを構築することができることを示す。
本稿では,行動データの時間的側面を把握し,モデルの性能予測に与える影響を解析する手法を提案する。
改良されたシーケンス分類手法は,高レベルの精度で生徒のパフォーマンスを予測でき,コース固有のモデルでは90%に達する。
論文 参考訳(メタデータ) (2022-08-16T13:46:39Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。