論文の概要: AAKT: Enhancing Knowledge Tracing with Alternate Autoregressive Modeling
- arxiv url: http://arxiv.org/abs/2502.11817v1
- Date: Mon, 17 Feb 2025 14:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:17:22.111668
- Title: AAKT: Enhancing Knowledge Tracing with Alternate Autoregressive Modeling
- Title(参考訳): AAKT: 代替自己回帰モデリングによる知識トレースの強化
- Authors: Hao Zhou, Wenge Rong, Jianfei Zhang, Qing Sun, Yuanxin Ouyang, Zhang Xiong,
- Abstract要約: Knowledge Tracingは、学生の過去の演習と教育環境における追加情報に基づいて、将来のパフォーマンスを予測することを目的としている。
知識追跡のための自己回帰モデリングにおける主要な課題の1つは、運動を通して学習者の前(プレレスポンス)と後(ポストレスポンス)状態を効果的に表現することである。
本稿では, 自己回帰モデル(自己回帰モデル)の原理に則って, 知識追跡タスクを生成過程として扱うことによって, 新たな視点を提案する。
- 参考スコア(独自算出の注目度): 23.247238358162157
- License:
- Abstract: Knowledge Tracing (KT) aims to predict students' future performances based on their former exercises and additional information in educational settings. KT has received significant attention since it facilitates personalized experiences in educational situations. Simultaneously, the autoregressive modeling on the sequence of former exercises has been proven effective for this task. One of the primary challenges in autoregressive modeling for Knowledge Tracing is effectively representing the anterior (pre-response) and posterior (post-response) states of learners across exercises. Existing methods often employ complex model architectures to update learner states using question and response records. In this study, we propose a novel perspective on knowledge tracing task by treating it as a generative process, consistent with the principles of autoregressive models. We demonstrate that knowledge states can be directly represented through autoregressive encodings on a question-response alternate sequence, where model generate the most probable representation in hidden state space by analyzing history interactions. This approach underpins our framework, termed Alternate Autoregressive Knowledge Tracing (AAKT). Additionally, we incorporate supplementary educational information, such as question-related skills, into our framework through an auxiliary task, and include extra exercise details, like response time, as additional inputs. Our proposed framework is implemented using advanced autoregressive technologies from Natural Language Generation (NLG) for both training and prediction. Empirical evaluations on four real-world KT datasets indicate that AAKT consistently outperforms all baseline models in terms of AUC, ACC, and RMSE. Furthermore, extensive ablation studies and visualized analysis validate the effectiveness of key components in AAKT.
- Abstract(参考訳): KT(Knowledge Tracing)は、学生の過去の演習と教育環境における追加情報に基づいて、将来のパフォーマンスを予測することを目的としている。
KTは教育現場でのパーソナライズされた体験を促進するため、大きな注目を集めている。
同時に、以前のエクササイズシーケンスにおける自己回帰モデリングは、このタスクに有効であることが証明されている。
知識追跡のための自己回帰モデリングにおける主要な課題の1つは、運動を通して学習者の前(プレレスポンス)と後(ポストレスポンス)状態を効果的に表現することである。
既存の手法では、質問や応答記録を用いて学習者の状態を更新するために複雑なモデルアーキテクチャを用いることが多い。
本研究では,自己回帰モデルの原理と整合して,知識追跡タスクを生成過程として扱うことで,知識追跡タスクの新たな視点を提案する。
本研究では,知識状態の自己回帰的エンコーディングにより,履歴の相互作用を解析することにより,隠れ状態空間における最も確率の高い表現をモデルが生成することを示す。
このアプローチは、Alternate Autoregressive Knowledge Tracing (AAKT)と呼ばれる私たちのフレームワークを支えるものです。
さらに,質問関連スキルなどの補助的な教育情報を,補助的なタスクを通じてフレームワークに組み込むとともに,追加のインプットとして,応答時間などのエクササイズの詳細を付加する。
提案するフレームワークは,自然言語生成(NLG)の高度な自己回帰技術を用いて,学習と予測の両方に実装されている。
4つの実世界のKTデータセットに対する実証的な評価は、AAKTがAUC、ACC、RMSEの点で全てのベースラインモデルより一貫して優れていることを示している。
さらに、広範囲にわたるアブレーション研究と可視化分析により、AAKTの鍵成分の有効性が検証された。
関連論文リスト
- CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - An Empirical Comparison of Deep Learning Models for Knowledge Tracing on
Large-Scale Dataset [10.329254031835953]
知識追跡は、各学生の知識概念の熟達をモデル化する問題である。
最近の大規模学生成績データセット citechoi 2019ednet のリリースは、ディープラーニングアプローチのパフォーマンス分析を動機付けている。
論文 参考訳(メタデータ) (2021-01-16T04:58:17Z) - Deep Knowledge Tracing with Learning Curves [0.9088303226909278]
本稿では,進化的知識追跡(CAKT)モデルを提案する。
このモデルは、3次元畳み込みニューラルネットワークを用いて、次の質問で同じ知識の概念を適用した学生の最近の経験を明示的に学習する。
CAKTは,既存のモデルと比較して,生徒の反応を予測する上で,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-26T15:24:51Z) - Context-Aware Attentive Knowledge Tracing [21.397976659857793]
本稿では、フレキシブルアテンションに基づくニューラルネットワークモデルと、新しい解釈可能なモデルコンポーネントを結合した注意知識追跡手法を提案する。
AKTは、学習者の将来の応答と過去の応答に対する評価質問を関連付ける新しいモノトニックアテンションメカニズムを使用する。
AKT は,既存の KT 手法(場合によっては AUC で最大6% 以上)よりも,将来の学習者応答の予測に優れることを示す。
論文 参考訳(メタデータ) (2020-07-24T02:45:43Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Dynamic Knowledge embedding and tracing [18.717482292051788]
本稿では,行列分解の手法と最近のリカレントニューラルネットワーク(RNN)の進歩を組み合わせた知識追跡手法を提案する。
提案するemphDynEmbフレームワークは,概念やスキルのタグ情報を使わずに,学生の知識の追跡を可能にする。
論文 参考訳(メタデータ) (2020-05-18T21:56:42Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。