論文の概要: College Student Retention Risk Analysis From Educational Database using
Multi-Task Multi-Modal Neural Fusion
- arxiv url: http://arxiv.org/abs/2109.05178v1
- Date: Sat, 11 Sep 2021 04:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:50:45.723838
- Title: College Student Retention Risk Analysis From Educational Database using
Multi-Task Multi-Modal Neural Fusion
- Title(参考訳): マルチタスクマルチモーダルニューラルフュージョンを用いた教育用データベースからの大学生の保持リスク分析
- Authors: Mohammad Arif Ul Alam
- Abstract要約: 我々は,5つの重要な学生のリスクを予測するために,マルチタスク学習のためのマルチモーダル比ニューラルフュージョンネットワーク(MSNF-MTCL)を開発した。
MSNF-MTCLは、将来のドロップアウト、次の学期ドロップアウト、ドロップアウトの種類、持続時間、ドロップアウトの保持、ドロップアウトの原因を予測する。
我々は18年間に36,445人の大学生からなる大規模な教育データベース上でMSNFMTCLを評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We develop a Multimodal Spatiotemporal Neural Fusion network for Multi-Task
Learning (MSNF-MTCL) to predict 5 important students' retention risks: future
dropout, next semester dropout, type of dropout, duration of dropout and cause
of dropout. First, we develop a general purpose multi-modal neural fusion
network model MSNF for learning students' academic information representation
by fusing spatial and temporal unstructured advising notes with spatiotemporal
structured data. MSNF combines a Bidirectional Encoder Representations from
Transformers (BERT)-based document embedding framework to represent each
advising note, Long-Short Term Memory (LSTM) network to model temporal advising
note embeddings, LSTM network to model students' temporal performance variables
and students' static demographics altogether. The final fused representation
from MSNF has been utilized on a Multi-Task Cascade Learning (MTCL) model
towards building MSNF-MTCL for predicting 5 student retention risks. We
evaluate MSNFMTCL on a large educational database consists of 36,445 college
students over 18 years period of time that provides promising performances
comparing with the nearest state-of-art models. Additionally, we test the
fairness of such model given the existence of biases.
- Abstract(参考訳): 我々は,マルチタスク学習(msnf-mtcl)のためのマルチモーダル時空間ニューラルフュージョンネットワークを開発し,将来のドロップアウト,次学期ドロップアウト,ドロップアウトの種類,ドロップアウトの持続時間,ドロップアウトの原因という5つの重要な学生の保持リスクを予測する。
まず,空間的および時間的非構造的助言ノートを時空間的構造化データと融合することにより,学生の学術情報表現を学習するための汎用マルチモーダルニューラルフュージョンネットワークモデルmsnfを開発した。
msnfは、トランスフォーマー(bert)ベースの文書埋め込みフレームワークからの双方向エンコーダ表現を組み合わせることで、各助言メモ、長期短期記憶(lstm)ネットワーク、時間助言メモ埋め込みのモデル化、lstmネットワーク、学生の時間的パフォーマンス変数と学生の静的人口動態をモデル化する。
MSNFからの最後の融合表現は、MSNF-MTCLを構築するためのマルチタスクカスケード学習(MTCL)モデルで活用されている。
我々は18年間に36,445人の大学生からなる大規模な教育データベース上でMSNFMTCLを評価し、最先端の最先端モデルと比較して有望なパフォーマンスを提供する。
さらに、バイアスの存在から、そのようなモデルの公平性をテストする。
関連論文リスト
- FedMS: Federated Learning with Mixture of Sparsely Activated Foundations
Models [11.362085734837217]
我々はFedMSと呼ばれる新しい2段階のフェデレーション学習アルゴリズムを提案する。
グローバルエキスパートは第一段階で訓練され、ローカルエキスパートは第二段階で訓練され、より良いパーソナライズを提供する。
我々はFedMSの有効性を検証するために広範囲な実験を行い、その結果、FedMSは他のSOTAベースラインを55.25%まで上回る結果となった。
論文 参考訳(メタデータ) (2023-12-26T07:40:26Z) - Unlock the Power: Competitive Distillation for Multi-Modal Large
Language Models [17.25135606956287]
競合型マルチモーダル蒸留フレームワーク(CoMD)は,教師モデルと学生モデル間の双方向フィードバックをキャプチャする。
多様なデータセットを実験的に分析した結果,我々の知識伝達手法は学生モデルの性能を継続的に改善することがわかった。
論文 参考訳(メタデータ) (2023-11-14T14:49:46Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Continual Vision-Language Representation Learning with Off-Diagonal
Information [112.39419069447902]
CLIPのようなマルチモーダルなコントラスト学習フレームワークは通常、トレーニングに大量の画像テキストサンプルを必要とする。
本稿では,ストリーミングデータを用いた連続CLIPトレーニングの実現可能性について論じる。
論文 参考訳(メタデータ) (2023-05-11T08:04:46Z) - VERITE: A Robust Benchmark for Multimodal Misinformation Detection
Accounting for Unimodal Bias [17.107961913114778]
マルチモーダルの誤報は ソーシャルメディアのプラットフォームで 増え続けている問題です
本研究では,広範に使用されているMDDベンチマークにおいて,一様偏差の存在を調査・同定する。
リアルな合成学習データを生成するための新しい手法であるCrossmodal HArd Synthetic MisAlignment (CHASMA)を導入する。
論文 参考訳(メタデータ) (2023-04-27T12:28:29Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Multimodal Federated Learning via Contrastive Representation Ensemble [17.08211358391482]
フェデレーテッド・ラーニング(FL)は、集中型機械学習に代わるプライバシ意識の代替手段として機能する。
既存のFLメソッドはすべて、モデルアグリゲーションを単一のモダリティレベルに依存している。
マルチモーダルFL(CreamFL)のためのコントラスト表現アンサンブルとアグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-02-17T14:17:44Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Large Scale Time-Series Representation Learning via Simultaneous Low and
High Frequency Feature Bootstrapping [7.0064929761691745]
本稿では,非コントラスト型自己教師型学習手法を提案する。
提案手法は生の時系列データを入力として、モデルの2つのブランチに対して2つの異なる拡張ビューを生成する。
モデルの堅牢性を実証するために,5つの実世界の時系列データセットに関する広範な実験とアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-04-24T14:39:47Z) - LIFE: Learning Individual Features for Multivariate Time Series
Prediction with Missing Values [71.52335136040664]
本稿では,MTS予測のための新しいパラダイムを提供する学習個人特徴(LIFE)フレームワークを提案する。
LIFEは、相関次元を補助情報として使用し、非相関次元からの干渉を欠落値で抑制することにより、予測のための信頼性の高い特徴を生成する。
3つの実世界のデータセットの実験は、既存の最先端モデルに対するLIFEの優位性を検証する。
論文 参考訳(メタデータ) (2021-09-30T04:53:24Z) - InterBERT: Vision-and-Language Interaction for Multi-modal Pretraining [76.32065400614162]
我々は,本シリーズのマルチモーダル事前学習手法M6の最初のモデルであるInterBERT(BERT for Interaction)を提案する。
モデルは、異なるモダリティの情報フロー間の相互作用をモデル化する強力な能力を持っている。
中国語におけるマルチモーダル事前学習のための大規模データセットを提案し,中国初のマルチモーダル事前学習モデルである中国語InterBERTを開発した。
論文 参考訳(メタデータ) (2020-03-30T03:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。