論文の概要: Multi-Factors Aware Dual-Attentional Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2108.04741v1
- Date: Tue, 10 Aug 2021 15:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:31:28.105884
- Title: Multi-Factors Aware Dual-Attentional Knowledge Tracing
- Title(参考訳): デュアルアテンショナル・ナレッジ・トレーシングを意識したマルチファクター
- Authors: Moyu Zhang (1), Xinning Zhu (1), Chunhong Zhang (1), Yang Ji (1), Feng
Pan (1), Changchuan Yin (1) ((1) Beijing University of Posts and
Telecommunications)
- Abstract要約: 学生の学習の進捗をモデル化するためのマルチファクター・アウェア・デュアル・アテンショナル・モデル(MF-DAKT)を提案する。
質問表現を豊かにするために,事前学習法を用いて2種類の質問情報を組み込む。
また、因子の寄与と要因の相互作用を最終予測に区別するために、二重注意機構を適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing demands of personalized learning, knowledge tracing has
become important which traces students' knowledge states based on their
historical practices. Factor analysis methods mainly use two kinds of factors
which are separately related to students and questions to model students'
knowledge states. These methods use the total number of attempts of students to
model students' learning progress and hardly highlight the impact of the most
recent relevant practices. Besides, current factor analysis methods ignore rich
information contained in questions. In this paper, we propose Multi-Factors
Aware Dual-Attentional model (MF-DAKT) which enriches question representations
and utilizes multiple factors to model students' learning progress based on a
dual-attentional mechanism. More specifically, we propose a novel
student-related factor which records the most recent attempts on relevant
concepts of students to highlight the impact of recent exercises. To enrich
questions representations, we use a pre-training method to incorporate two
kinds of question information including questions' relation and difficulty
level. We also add a regularization term about questions' difficulty level to
restrict pre-trained question representations to fine-tuning during the process
of predicting students' performance. Moreover, we apply a dual-attentional
mechanism to differentiate contributions of factors and factor interactions to
final prediction in different practice records. At last, we conduct experiments
on several real-world datasets and results show that MF-DAKT can outperform
existing knowledge tracing methods. We also conduct several studies to validate
the effects of each component of MF-DAKT.
- Abstract(参考訳): パーソナライズされた学習の需要が高まるにつれ、学生の歴史的実践に基づいて知識状態を追跡する知識追跡の重要性が高まっている。
因子分析法は主に,学生の知識状態をモデル化するために,学生と個別に関係する2種類の要因を用いる。
これらの手法は,生徒の学習の進捗をモデル化するために,学生の試行回数の合計を用いており,近年の関連する実践の影響をほとんど強調しない。
さらに、現在の因子分析法は、質問に含まれる豊富な情報を無視する。
本稿では、質問表現を豊かにし、複数の要因を用いて学生の学習進捗を2つの意図的メカニズムに基づいてモデル化するマルチファクター意識モデル(MF-DAKT)を提案する。
より具体的には,最近の演習の効果を強調するために,学生の関連する概念に関する最新の試みを記録する,新しい学生関連因子を提案する。
質問表現を充実させるために,質問の関係や難易度を含む2種類の質問情報を事前学習手法を用いる。
また,学生のパフォーマンスを予測する過程において,事前学習した質問表現を微調整に限定するために,質問の難易度に関する正規化用語を追加する。
さらに,異なる実践記録における最終予測に,因子と因子相互作用の寄与を区別するために,二重注意機構を適用した。
その結果,MF-DAKTが既存の知識追跡手法より優れていることが示された。
また,MF-DAKTの各成分の効果を検証するためにいくつかの研究を行った。
関連論文リスト
- SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - A Question-centric Multi-experts Contrastive Learning Framework for Improving the Accuracy and Interpretability of Deep Sequential Knowledge Tracing Models [26.294808618068146]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Learning Disentangled Representations for Counterfactual Regression via
Mutual Information Minimization [25.864029391642422]
相互情報最小化(MIM-DRCFR)による非現実的回帰表現を提案する。
マルチタスク学習フレームワークを用いて、潜伏要因の学習時に情報を共有し、MI最小化学習基準を取り入れ、これらの要因の独立性を確保する。
パブリックベンチマークや実世界の産業ユーザ成長データセットを含む実験は、我々の手法が最先端の手法よりもはるかに優れていることを示した。
論文 参考訳(メタデータ) (2022-06-02T12:49:41Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - RKT : Relation-Aware Self-Attention for Knowledge Tracing [2.9778695679660188]
知識追跡のためのリレーショナル・アウェア・セルフアテンション・モデル(RKT)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
我々のモデルは最先端の知識追跡手法より優れている。
論文 参考訳(メタデータ) (2020-08-28T16:47:03Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。