論文の概要: Equitable Ability Estimation in Neurodivergent Student Populations with
Zero-Inflated Learner Models
- arxiv url: http://arxiv.org/abs/2203.10170v2
- Date: Mon, 9 May 2022 12:21:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:44:27.494071
- Title: Equitable Ability Estimation in Neurodivergent Student Populations with
Zero-Inflated Learner Models
- Title(参考訳): ゼロインフレーション学習者モデルを用いたニューロディバージェント学生集団の等価能力推定
- Authors: Niall Twomey, Sarah McMullan, Anat Elhalal, Rafael Poyiadzi, Luis
Vaquero
- Abstract要約: 本稿では,ND学生における文脈(配送型と応答型)と非膨らませ学習者モデルの性能の関係をモデル化する。
このアプローチは, 予測されたND行動特性のシミュレーションを促進し, 生成したデータセットから, 全学生群に等しく, 解釈可能性の信頼度を高め, ND学生の学習機会の質を著しく向上させる。
- 参考スコア(独自算出の注目度): 3.418206750929592
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: At present, the educational data mining community lacks many tools needed for
ensuring equitable ability estimation for Neurodivergent (ND) learners. On one
hand, most learner models are susceptible to under-estimating ND ability since
confounding contexts cannot be held accountable (eg consider dyslexia and
text-heavy assessments), and on the other, few (if any) existing datasets are
suited for appraising model and data bias in ND contexts. In this paper we
attempt to model the relationships between context (delivery and response
types) and performance of ND students with zero-inflated learner models. This
approach facilitates simulation of several expected ND behavioural traits,
provides equitable ability estimates across all student groups from generated
datasets, increases interpretability confidence, and can significantly increase
the quality of learning opportunities for ND students. Our approach
consistently out-performs baselines in our experiments and can also be applied
to many other learner modelling frameworks.
- Abstract(参考訳): 現在、教育データマイニングコミュニティには、ニューロディバージェント(ND)学習者のための公平な能力推定に必要な多くのツールが欠けている。
一方、ほとんどの学習者モデルは、コンファウンディングコンテキストが説明責任を持つことができない(ディレクシアやテキスト重度評価など)ため、nd能力の過小評価に影響を受けやすく、他方では、ndコンテキストにおけるモデルやデータバイアスの評価に適している既存のデータセットは(もしあるとしても)ほとんどない。
本稿では,ゼロインフレーション学習者モデルを用いたND学生の文脈(配送型と応答型)と評価の関係をモデル化する。
このアプローチは, 予測されたND行動特性のシミュレーションを促進し, 生成したデータセットからすべての学生グループに等しく, 解釈可能性の信頼度を高め, ND学生の学習機会の質を著しく向上させる。
我々のアプローチは実験のベースラインを一貫して上回り、他の多くの学習者モデリングフレームワークにも適用できます。
関連論文リスト
- Self-Regulated Data-Free Knowledge Amalgamation for Text Classification [9.169836450935724]
そこで我々は,複数の教師モデルから学習できる軽量な学生ネットワークを構築した。
そこで本研究では,各教師に適したテキストデータを生成するモデリングフレームワークSTRATANETを提案する。
本手法は,ラベルやドメインの異なる3つのベンチマークテキスト分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-16T21:13:30Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Near-Negative Distinction: Giving a Second Life to Human Evaluation
Datasets [95.4182455942628]
本研究では,従来のアノテーションをNNDテストに再利用するNear-Negative Distinction(NND)を提案する。
NNDテストでは、NLGモデルは既知の誤りのあるほぼ負の候補よりも高品質な出力候補に高い確率で配置しなければならない。
NND は標準的な NLG 評価指標よりも,人間の判断との相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-13T20:02:53Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Learning to be a Statistician: Learned Estimator for Number of Distinct
Values [54.629042119819744]
列内の異なる値の数(NDV)を推定することは、データベースシステムにおける多くのタスクに有用である。
本研究では、ランダム(オンライン/オフライン)サンプルから正確なNDV推定を導出する方法に焦点を当てる。
教師付き学習フレームワークにおいて,NDV推定タスクを定式化し,モデルを推定対象として学習することを提案する。
論文 参考訳(メタデータ) (2022-02-06T15:42:04Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Understanding Robustness in Teacher-Student Setting: A New Perspective [42.746182547068265]
適応的な例は機械学習モデルで、有界な対向的摂動はモデルを誤解させ、任意に誤った予測をすることができる。
広範な研究は、逆例の存在を説明し、モデルのロバスト性を改善する方法を提供する。
我々の研究は、敵対的な事例に関する将来の探索を暗示し、原則化されたデータ拡張を通じてモデルロバスト性を高めることができる。
論文 参考訳(メタデータ) (2021-02-25T20:54:24Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。