論文の概要: Student Performance Prediction Using Dynamic Neural Models
- arxiv url: http://arxiv.org/abs/2106.00524v1
- Date: Tue, 1 Jun 2021 14:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 14:36:26.059479
- Title: Student Performance Prediction Using Dynamic Neural Models
- Title(参考訳): 動的ニューラルモデルを用いた学生のパフォーマンス予測
- Authors: Marina Delianidi, Konstantinos Diamantaras, George Chrysogonidis,
Vasileios Nikiforidis
- Abstract要約: 本稿では, 学生の次の受験質問に対する回答の正しさを, 以前のインタラクションに基づいて予測する問題に対処する。
我々は、その解に対する動的ニューラルネットワークの2つの主要なクラス、すなわち有限メモリ時間遅延ニューラルネットワーク(TDNN)と潜在的無限メモリリカレントニューラルネットワーク(RNN)を比較した。
実験の結果,これまでに使用したすべてのデータセットにおいて,RNNアプローチの性能はTDNNアプローチよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of predicting the correctness of the student's
response on the next exam question based on their previous interactions in the
course of their learning and evaluation process. We model the student
performance as a dynamic problem and compare the two major classes of dynamic
neural architectures for its solution, namely the finite-memory Time Delay
Neural Networks (TDNN) and the potentially infinite-memory Recurrent Neural
Networks (RNN). Since the next response is a function of the knowledge state of
the student and this, in turn, is a function of their previous responses and
the skills associated with the previous questions, we propose a two-part
network architecture. The first part employs a dynamic neural network (either
TDNN or RNN) to trace the student knowledge state. The second part applies on
top of the dynamic part and it is a multi-layer feed-forward network which
completes the classification task of predicting the student response based on
our estimate of the student knowledge state. Both input skills and previous
responses are encoded using different embeddings. Regarding the skill
embeddings we tried two different initialization schemes using (a) random
vectors and (b) pretrained vectors matching the textual descriptions of the
skills. Our experiments show that the performance of the RNN approach is better
compared to the TDNN approach in all datasets that we have used. Also, we show
that our RNN architecture outperforms the state-of-the-art models in four out
of five datasets. It is worth noting that the TDNN approach also outperforms
the state of the art models in four out of five datasets, although it is
slightly worse than our proposed RNN approach. Finally, contrary to our
expectations, we find that the initialization of skill embeddings using
pretrained vectors offers practically no advantage over random initialization.
- Abstract(参考訳): 本研究は,学生の学習・評価過程における過去のインタラクションに基づいて,次の試験問題に対する学生の回答の正当性を予測する問題に対処する。
我々は、学生のパフォーマンスを動的問題としてモデル化し、そのソリューションとして、有限メモリ時間遅延ニューラルネットワーク(TDNN)と潜在的無限メモリリカレントニューラルネットワーク(RNN)の2つの主要なクラスを比較した。
次の応答は,学生の知識状態の関数であり,それに対して,従来の応答と,それに関連するスキルの関数であるので,2部ネットワークアーキテクチャを提案する。
第1部は、動的ニューラルネットワーク(tdnnまたはrnn)を使用して、学生の知識状態をトレースする。
第2部は動的部分の上に適用され、学生の知識状態の推定に基づいて学生の反応を予測する分類タスクを完了した多層フィードフォワードネットワークである。
入力スキルと以前のレスポンスは、異なる埋め込みを使ってエンコードされる。
スキル埋め込みに関しては, (a) ランダムベクトルと (b) スキルのテキスト記述と一致する事前学習ベクトルを用いて, 2つの異なる初期化手法を試した。
実験の結果,これまでに使用したすべてのデータセットにおいて,RNNアプローチの性能はTDNNアプローチよりも優れていることがわかった。
また、我々のRNNアーキテクチャは、5つのデータセットのうち4つで最先端のモデルよりも優れていることを示す。
tdnnのアプローチは、5つのデータセットのうち4つでアートモデルの状態を上回っていますが、提案されているrnnのアプローチよりは少し悪いです。
最後に、我々の期待に反して、事前学習ベクターを用いたスキル埋め込みの初期化は、ランダム初期化に対して事実上優位ではないことが判明した。
関連論文リスト
- Investigating Sparsity in Recurrent Neural Networks [0.0]
本論文は, プルーニングとスパースリカレントニューラルネットワークがRNNの性能に与える影響を考察することに焦点を当てる。
まず,RNNの刈り込み,RNNの性能への影響,および刈り込み後の精度回復に必要な訓練エポック数について述べる。
次に、スパースリカレントニューラルネットワークの作成と訓練を継続し、その基礎となる任意の構造の性能とグラフ特性の関係を同定する。
論文 参考訳(メタデータ) (2024-07-30T07:24:58Z) - Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Learning Useful Representations of Recurrent Neural Network Weight Matrices [30.583752432727326]
リカレントニューラルネットワーク(Recurrent Neural Networks、RNN)は、汎用並列シーケンスコンピュータである。
下流タスクと同様に、RNN分析を容易にするRNN重みの有用な表現をどうやって学習するか?
我々は、RNN重みに対するいくつかの力学的アプローチを検討し、RNNに対して置換同変のDeep Weight Space層を適用する。
我々の2つの新しい機能主義者は、入力を探索することでRNNの重みから情報を'インターロゲート'することで抽出する。
論文 参考訳(メタデータ) (2024-03-18T17:32:23Z) - Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Dynamic Analysis and an Eigen Initializer for Recurrent Neural Networks [0.0]
繰り返しニューラルネットワークにおける隠れ状態のダイナミクスについて検討する。
重み行列の固有分解に基づいて隠れ状態空間を解析するための新しい視点を提案する。
本稿では,固有解析に基づく長期依存の説明を行う。
論文 参考訳(メタデータ) (2023-07-28T17:14:58Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Scene Understanding for Autonomous Driving [0.0]
Detectron2で提示されたRetinaNet, Faster R-CNN, Mask R-CNNの異なる構成の挙動を検討する。
関心のあるデータセット上でこれらのモデルを微調整した後、パフォーマンスの大幅な改善を観察します。
文脈外のデータセットを用いて異常な状況下で推論を行い、興味深い結果を示す。
論文 参考訳(メタデータ) (2021-05-11T09:50:05Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Modeling Token-level Uncertainty to Learn Unknown Concepts in SLU via
Calibrated Dirichlet Prior RNN [98.4713940310056]
現代パーソナルアシスタントにおける音声言語理解(SLU)の主な課題は、発話から意味概念を抽出することである。
最近の研究では、疑問と回答を収集し、未知のデータを学習し、質問すべきである。
疑わしい監督なしにシーケンスの不確かさをモデル化するために、ソフトマックスベースのスロット充填ニューラルネットワークアーキテクチャを組み込んだ。
論文 参考訳(メタデータ) (2020-10-16T02:12:30Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。