論文の概要: Data Augmentation for Sparse Multidimensional Learning Performance Data Using Generative AI
- arxiv url: http://arxiv.org/abs/2409.15631v1
- Date: Tue, 24 Sep 2024 00:25:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 11:32:56.017582
- Title: Data Augmentation for Sparse Multidimensional Learning Performance Data Using Generative AI
- Title(参考訳): 生成AIを用いたスパース多次元学習性能データのためのデータ拡張
- Authors: Liang Zhang, Jionghao Lin, John Sabatini, Conrad Borchers, Daniel Weitekamp, Meng Cao, John Hollander, Xiangen Hu, Arthur C. Graesser,
- Abstract要約: 学習パフォーマンスデータは、適応学習における正しい解答や問題解決の試みを記述している。
学習性能データは、適応的なアイテム選択のため、ほとんどの実世界のアプリケーションでは、非常にスパースな(80%(sim)90%の欠落)傾向にある。
本稿では,学習者のデータの分散性に対処するために,学習者のデータを拡張するための体系的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.242331892899543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning performance data describe correct and incorrect answers or problem-solving attempts in adaptive learning, such as in intelligent tutoring systems (ITSs). Learning performance data tend to be highly sparse (80\%\(\sim\)90\% missing observations) in most real-world applications due to adaptive item selection. This data sparsity presents challenges to using learner models to effectively predict future performance explore new hypotheses about learning. This article proposes a systematic framework for augmenting learner data to address data sparsity in learning performance data. First, learning performance is represented as a three-dimensional tensor of learners' questions, answers, and attempts, capturing longitudinal knowledge states during learning. Second, a tensor factorization method is used to impute missing values in sparse tensors of collected learner data, thereby grounding the imputation on knowledge tracing tasks that predict missing performance values based on real observations. Third, a module for generating patterns of learning is used. This study contrasts two forms of generative Artificial Intelligence (AI), including Generative Adversarial Networks (GANs) and Generate Pre-Trained Transformers (GPT) to generate data associated with different clusters of learner data. We tested this approach on an adult literacy dataset from AutoTutor lessons developed for Adult Reading Comprehension (ARC). We found that: (1) tensor factorization improved the performance in tracing and predicting knowledge mastery compared with other knowledge tracing techniques without data augmentation, showing higher relative fidelity for this imputation method, and (2) the GAN-based simulation showed greater overall stability and less statistical bias based on a divergence evaluation with varying simulation sample sizes compared to GPT.
- Abstract(参考訳): 学習成績データは、知的チューリングシステム(ITS)のような適応学習における正誤答や問題解決の試みを記述している。
学習性能データは、適応アイテムの選択により、ほとんどの現実世界のアプリケーションにおいて非常に疎い(80\%\(\sim\)90\%の欠落)傾向にある。
このデータは,学習者モデルを用いて将来のパフォーマンスを効果的に予測し,学習に関する新たな仮説を探求する上での課題となる。
本稿では,学習者のデータの分散性に対処するため,学習者のデータを拡張するための体系的フレームワークを提案する。
まず,学習能力は学習者の質問,回答,試みの3次元テンソルとして表現され,学習中の長手な知識状態を捉える。
第2に、収集した学習者のデータのスパーステンソルの欠落値をインプットするために、テンソル分解法を用いて、実際の観測結果に基づいて、欠落した性能値を予測する知識追跡タスクをインプットする。
第3に、学習パターンを生成するモジュールを使用する。
本研究では、GAN(Generative Adversarial Networks)とGPT(Generate Pre-Trained Transformer)という2種類の生成人工知能(Generative Artificial Intelligence, AI)を対比し、学習者の異なるクラスタに関連付けられたデータを生成する。
本稿では,成人読解(ARC)のためのAutoTutorの授業から,成人用リテラシーデータセットを用いて本手法を検証した。
その結果,(1) テンソル因子化により,データ拡張のない他の知識追跡手法と比較して,知識熟達の追跡・予測性能が向上し,その相対的忠実度が向上し,(2) GAN に基づくシミュレーションでは,GPT と比較した場合のばらつき評価に基づいて,全体的な安定性が向上し,統計的バイアスが低かった。
関連論文リスト
- Generative Adversarial Networks for Imputing Sparse Learning Performance [3.0350058108125646]
本稿では,GAIN(Generative Adversarial Imputation Networks)フレームワークを用いて,スパース学習性能データをインプットする手法を提案する。
3次元テンソル空間でスパースデータを計算するGAIN法をカスタマイズした。
この発見は、AIベースの教育における包括的な学習データモデリングと分析を促進する。
論文 参考訳(メタデータ) (2024-07-26T17:09:48Z) - Enhancing Deep Knowledge Tracing via Diffusion Models for Personalized Adaptive Learning [1.2248793682283963]
本研究は、学習記録におけるデータ不足問題に取り組み、パーソナライズされた適応学習(PAL)のためのDKT性能を向上させることを目的とする。
拡散モデルであるTabDDPMを用いて合成教育記録を生成し、DKTの強化のためのトレーニングデータを強化する。
実験結果から,TabDDPMによるAI生成データにより,DKTの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-25T00:23:20Z) - 3DG: A Framework for Using Generative AI for Handling Sparse Learner
Performance Data From Intelligent Tutoring Systems [22.70004627901319]
本稿では, テンソル因子化と高次生成モデルを組み合わせた新しいアプローチである3DGフレームワーク(デンシフィケーション・アンド・ジェネレーション用3次元テンソル)を紹介する。
このフレームワークは、学習性能のスケーラブルでパーソナライズされたシミュレーションを効果的に生成した。
論文 参考訳(メタデータ) (2024-01-29T22:34:01Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Benchmarking Learning Efficiency in Deep Reservoir Computing [23.753943709362794]
我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
論文 参考訳(メタデータ) (2022-09-29T08:16:52Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。