論文の概要: Generative Data Imputation for Sparse Learner Performance Data Using Generative Adversarial Imputation Networks
- arxiv url: http://arxiv.org/abs/2503.18982v1
- Date: Sun, 23 Mar 2025 06:11:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:51:34.918641
- Title: Generative Data Imputation for Sparse Learner Performance Data Using Generative Adversarial Imputation Networks
- Title(参考訳): 生成逆インプットネットワークを用いたスパース学習者パフォーマンスデータの生成データインプット
- Authors: Liang Zhang, Jionghao Lin, John Sabatini, Diego Zapata-Rivera, Carol Forsyth, Yang Jiang, John Hollander, Xiangen Hu, Arthur C. Graesser,
- Abstract要約: スキップや不完全な試みによるレスポンスの欠落は、データの疎結合を生み出す。
我々は、GAIN(Generative Adrial Imputation Networks)を用いた生成的計算手法を提案する。
提案手法は3次元のフレームワーク(学習者,質問,試行)を特徴とし,様々な空間レベルを柔軟に調節する。
- 参考スコア(独自算出の注目度): 3.0800525961862992
- License:
- Abstract: Learner performance data collected by Intelligent Tutoring Systems (ITSs), such as responses to questions, is essential for modeling and predicting learners' knowledge states. However, missing responses due to skips or incomplete attempts create data sparsity, challenging accurate assessment and personalized instruction. To address this, we propose a generative imputation approach using Generative Adversarial Imputation Networks (GAIN). Our method features a three-dimensional (3D) framework (learners, questions, and attempts), flexibly accommodating various sparsity levels. Enhanced by convolutional neural networks and optimized with a least squares loss function, the GAIN-based method aligns input and output dimensions to question-attempt matrices along the learners' dimension. Extensive experiments using datasets from AutoTutor Adult Reading Comprehension (ARC), ASSISTments, and MATHia demonstrate that our approach significantly outperforms tensor factorization and alternative GAN methods in imputation accuracy across different attempt scenarios. Bayesian Knowledge Tracing (BKT) further validates the effectiveness of the imputed data by estimating learning parameters: initial knowledge (P(L0)), learning rate (P(T)), guess rate (P(G)), and slip rate (P(S)). Results indicate the imputed data enhances model fit and closely mirrors original distributions, capturing underlying learning behaviors reliably. Kullback-Leibler (KL) divergence assessments confirm minimal divergence, showing the imputed data preserves essential learning characteristics effectively. These findings underscore GAIN's capability as a robust imputation tool in ITSs, alleviating data sparsity and supporting adaptive, individualized instruction, ultimately leading to more precise and responsive learner assessments and improved educational outcomes.
- Abstract(参考訳): Intelligent Tutoring Systems(ITS)が収集した学習者パフォーマンスデータは,質問に対する応答などの学習者の知識状態のモデル化と予測に不可欠である。
しかし、スキップや不完全な試みによる応答の欠如は、データの疎結合を生じさせ、正確な評価とパーソナライズされた指示に挑戦する。
そこで我々は,GAIN (Generative Adversarial Imputation Networks) を用いた生成的計算手法を提案する。
提案手法は3次元のフレームワーク(学習者,質問,試行)を特徴とし,様々な空間レベルを柔軟に調節する。
畳み込みニューラルネットワークによって強化され、最小二乗損失関数で最適化され、GAINベースの手法は、入力と出力の次元を学習者の次元に沿って疑問を投げかける行列に整列する。
AutoTutor Adult Reading Comprehension (ARC), ASSISTments, MATHiaのデータセットを用いた大規模な実験により, 提案手法は, 異なる試行シナリオ間での計算精度において, テンソル因子化および代替GAN法を著しく上回っていることが示された。
ベイズ知識追跡(BKT)は、初期知識(P(L0))、学習率(P(T))、推測率(P(G))、すべり率(P(S))を推定することにより、インプットされたデータの有効性をさらに検証する。
その結果,入力されたデータはモデルの適合性を向上し,元の分布を忠実に反映し,基礎となる学習行動を確実に捉えていることがわかった。
Kullback-Leibler (KL) のばらつき評価は最小限のばらつきを証明し,本質的な学習特性を効果的に保存することを示す。
これらの知見は, GAINがITSの頑健な計算ツールとして機能し, データの分散を緩和し, 適応的, 個別化指導をサポートし, 最終的にはより正確で応答性の高い学習者評価と教育成果の向上につながった。
関連論文リスト
- Data Augmentation for Sparse Multidimensional Learning Performance Data Using Generative AI [17.242331892899543]
学習パフォーマンスデータは、適応学習における正しい解答や問題解決の試みを記述している。
学習性能データは、適応的なアイテム選択のため、ほとんどの実世界のアプリケーションでは、非常にスパースな(80%(sim)90%の欠落)傾向にある。
本稿では,学習者のデータの分散性に対処するために,学習者のデータを拡張するための体系的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T00:25:07Z) - Generative Adversarial Networks for Imputing Sparse Learning Performance [3.0350058108125646]
本稿では,GAIN(Generative Adversarial Imputation Networks)フレームワークを用いて,スパース学習性能データをインプットする手法を提案する。
3次元テンソル空間でスパースデータを計算するGAIN法をカスタマイズした。
この発見は、AIベースの教育における包括的な学習データモデリングと分析を促進する。
論文 参考訳(メタデータ) (2024-07-26T17:09:48Z) - Improvement of Applicability in Student Performance Prediction Based on Transfer Learning [2.3290007848431955]
本研究では,様々な分布を持つデータセットの転送学習手法を用いて,予測精度を向上させる手法を提案する。
モデルは、その一般化能力と予測精度を高めるために訓練され、評価された。
実験により, この手法は根平均角誤差 (RMSE) と平均絶対誤差 (MAE) の低減に優れていることが示された。
結果は、より多くのレイヤを凍結することで、複雑でノイズの多いデータのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-01T13:09:05Z) - Enhancing Deep Knowledge Tracing via Diffusion Models for Personalized Adaptive Learning [1.2248793682283963]
本研究は、学習記録におけるデータ不足問題に取り組み、パーソナライズされた適応学習(PAL)のためのDKT性能を向上させることを目的とする。
拡散モデルであるTabDDPMを用いて合成教育記録を生成し、DKTの強化のためのトレーニングデータを強化する。
実験結果から,TabDDPMによるAI生成データにより,DKTの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-25T00:23:20Z) - 3DG: A Framework for Using Generative AI for Handling Sparse Learner
Performance Data From Intelligent Tutoring Systems [22.70004627901319]
本稿では, テンソル因子化と高次生成モデルを組み合わせた新しいアプローチである3DGフレームワーク(デンシフィケーション・アンド・ジェネレーション用3次元テンソル)を紹介する。
このフレームワークは、学習性能のスケーラブルでパーソナライズされたシミュレーションを効果的に生成した。
論文 参考訳(メタデータ) (2024-01-29T22:34:01Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。