論文の概要: Representation Learning of Auxiliary Concepts for Improved Student Modeling and Exercise Recommendation
- arxiv url: http://arxiv.org/abs/2508.16269v1
- Date: Fri, 22 Aug 2025 10:12:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.348932
- Title: Representation Learning of Auxiliary Concepts for Improved Student Modeling and Exercise Recommendation
- Title(参考訳): 学生モデルの改善とエクササイズ勧告のための補助概念の表現学習
- Authors: Yahya Badran, Christine Preisach,
- Abstract要約: 本研究では,エクササイズの疎二項表現を学習する深層学習モデルを提案する。
これらの表現は、人間の定義したアノテーション以上の概念構造をキャプチャする。
補助的なKCを取り入れることで、学生のモデリングと適応的なエクササイズレコメンデーションの両方が改善されることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized recommendation is a key feature of intelligent tutoring systems, typically relying on accurate models of student knowledge. Knowledge Tracing (KT) models enable this by estimating a student's mastery based on their historical interactions. Many KT models rely on human-annotated knowledge concepts (KCs), which tag each exercise with one or more skills or concepts believed to be necessary for solving it. However, these KCs can be incomplete, error-prone, or overly general. In this paper, we propose a deep learning model that learns sparse binary representations of exercises, where each bit indicates the presence or absence of a latent concept. We refer to these representations as auxiliary KCs. These representations capture conceptual structure beyond human-defined annotations and are compatible with both classical models (e.g., BKT) and modern deep learning KT architectures. We demonstrate that incorporating auxiliary KCs improves both student modeling and adaptive exercise recommendation. For student modeling, we show that augmenting classical models like BKT with auxiliary KCs leads to improved predictive performance. For recommendation, we show that using auxiliary KCs enhances both reinforcement learning-based policies and a simple planning-based method (expectimax), resulting in measurable gains in student learning outcomes within a simulated student environment.
- Abstract(参考訳): パーソナライズドレコメンデーションは知的教育システムの重要な特徴であり、通常は生徒の知識の正確なモデルに依存している。
知識追跡(KT)モデルは、学生の歴史的相互作用に基づいて、生徒の熟達度を推定することで、これを可能とします。
多くのKTモデルは、人間の注釈付き知識概念(KC)に依存しており、各エクササイズに1つ以上のスキルや概念をタグ付けして解決する。
しかしながら、これらのKCは不完全、エラーを起こしやすい、あるいは過度に一般的なものである。
本稿では,エクササイズの疎二元表現を学習する深層学習モデルを提案する。
これらの表現を補助的なKCと呼ぶ。
これらの表現は、人間の定義したアノテーションを超えて概念構造を捉え、古典的なモデル(例えば、BKT)と現代のディープラーニングKTアーキテクチャの両方と互換性がある。
補助的なKCを取り入れることで、学生のモデリングと適応的なエクササイズレコメンデーションの両方が改善されることを示す。
学生モデルでは, 補助KCを用いたBKTのような古典モデルの拡張により, 予測性能が向上することを示す。
推薦のために,補助的なKCを使うことで,強化学習に基づくポリシーと簡易計画に基づく手法(Expectimax)の両方が強化され,シミュレーションされた学生環境における生徒の学習成果が測定可能となることを示す。
関連論文リスト
- Personalized Exercise Recommendation with Semantically-Grounded Knowledge Tracing [54.44838681588145]
ExRecは、セマンティックグラウンドの知識トレースを備えたパーソナライズされたエクササイズレコメンデーションのためのフレームワークである。
ExRecは、新しい、目に見えない質問に頑健に一般化し、解釈可能な学習軌跡を生成することを示す。
論文 参考訳(メタデータ) (2025-07-15T07:54:04Z) - Improving Question Embeddings with Cognitive Representation Optimization for Knowledge Tracing [77.14348157016518]
KTモデリングの研究は、既存の未更新の学生の相互作用の記録に基づいて、将来の学生のパフォーマンスを予測することに焦点を当てている。
動的プログラミングアルゴリズムを用いて認知表現の構造を最適化する知識追跡型認知表現最適化(CRO-KT)モデルを提案する。
論文 参考訳(メタデータ) (2025-04-05T09:32:03Z) - Sparse Binary Representation Learning for Knowledge Tracing [0.0]
知識追跡モデル(KT)は、学生の過去の相互作用に基づいて将来のパフォーマンスを予測することを目的としている。
既存のKTモデルは、エクササイズに関連する人間定義の知識概念にのみ依存している。
KT モデル SBRKT (Sparse Binary Representation KT) を提案する。
論文 参考訳(メタデータ) (2025-01-17T00:45:10Z) - Automated Knowledge Concept Annotation and Question Representation Learning for Knowledge Tracing [59.480951050911436]
自動知識概念アノテーションと質問表現学習のためのフレームワークであるKCQRLを提案する。
実世界の2つの学習データセット上で、15KTアルゴリズムにまたがるKCQRLの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-02T16:37:19Z) - Comparative Knowledge Distillation [102.35425896967791]
伝統的な知識蒸留(KD)は、頻繁な推論のために教師モデルに容易にアクセスできることを前提としている。
本稿では,教師モデルにおけるサンプルの解釈の微妙な違いを学生モデルに理解させるための比較知識蒸留(CKD)を提案する。
CKDは、アートデータ拡張とKDテクニックの状態を一貫して上回る。
論文 参考訳(メタデータ) (2023-11-03T21:55:33Z) - Knowledge Distillation with Representative Teacher Keys Based on
Attention Mechanism for Image Classification Model Compression [1.503974529275767]
知識蒸留(KD)はモデルパラメータを減らすためのモデル圧縮の効果的な方法の1つとして認識されている。
注意機構にヒントを得て,代表教師キー(RTK)と呼ばれる新しいKD手法を提案する。
提案するRTKは,最先端の注意に基づくKD手法の分類精度を効果的に向上させることができる。
論文 参考訳(メタデータ) (2022-06-26T05:08:50Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。