論文の概要: Explainable Knowledge Tracing Models for Big Data: Is Ensembling an
Answer?
- arxiv url: http://arxiv.org/abs/2011.05285v1
- Date: Tue, 10 Nov 2020 18:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:48:25.539335
- Title: Explainable Knowledge Tracing Models for Big Data: Is Ensembling an
Answer?
- Title(参考訳): ビッグデータのための説明可能な知識トレースモデル: センスリングは答か?
- Authors: Tirth Shah, Lukas Olson, Aditya Sharma, Nirmal Patel
- Abstract要約: 我々は,2020年のNeurIPS Education Challengeの知識追跡モデルについて述べる。
我々は、22種類のモデルを組み合わせて、学生が与えられた質問に正しく答えられるかどうかを予測した。
- 参考スコア(独自算出の注目度): 1.2043574473965315
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we describe our Knowledge Tracing model for the 2020 NeurIPS
Education Challenge. We used a combination of 22 models to predict whether the
students will answer a given question correctly or not. Our combination of
different approaches allowed us to get an accuracy higher than any of the
individual models, and the variation of our model types gave our solution
better explainability, more alignment with learning science theories, and high
predictive power.
- Abstract(参考訳): 本稿では,2020年のNeurIPS Education Challengeにおける知識追跡モデルについて述べる。
我々は、22種類のモデルを組み合わせて、学生が与えられた質問に正しく答えられるかどうかを予測する。
異なるアプローチを組み合わせることで、個々のモデルよりも精度が向上し、モデルタイプの変化によって、より説明しやすくなり、学習科学理論との整合性が向上し、高い予測能力が得られました。
関連論文リスト
- Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Modeling the EdNet Dataset with Logistic Regression [0.0]
私たちは、教育データマイニングの観点から競争の経験を説明します。
我々は,kaggleシステムにおける基礎的結果と,その改善の可能性について考察した。
論文 参考訳(メタデータ) (2021-05-17T20:30:36Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Deep Modeling of Tabular Data using TableGraphNet [1.376408511310322]
付加的特徴属性の形で説明可能な予測を生成する新しいアーキテクチャを提案する。
説明可能なモデルはブラックボックスモデルと同じレベルの性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-12T20:02:10Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。