論文の概要: Prerequisite-driven Q-matrix Refinement for Learner Knowledge
Assessment: A Case Study in Online Learning Context
- arxiv url: http://arxiv.org/abs/2208.12642v1
- Date: Wed, 24 Aug 2022 08:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:42:24.940693
- Title: Prerequisite-driven Q-matrix Refinement for Learner Knowledge
Assessment: A Case Study in Online Learning Context
- Title(参考訳): 学習者知識評価のための前提条件駆動Q行列再構成:オンライン学習文脈におけるケーススタディ
- Authors: Wenbin Gan and Yuan Sun
- Abstract要約: 本稿では,学習者知識評価(PQRLKA)のための前提条件駆動型Q行列改善フレームワークを提案する。
学習者の応答データから前提条件を推測し,それを用いて専門家定義Q行列を洗練する。
改良されたQ行列に基づいて,Metapath2Vec拡張畳み込み表現法を提案し,各項目の包括的表現を求める。
- 参考スコア(独自算出の注目度): 2.221779410386775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ever growing abundance of learning traces in the online learning
platforms promises unique insights into the learner knowledge assessment (LKA),
a fundamental personalized-tutoring technique for enabling various further
adaptive tutoring services in these platforms. Precise assessment of learner
knowledge requires the fine-grained Q-matrix, which is generally designed by
experts to map the items to skills in the domain. Due to the subjective
tendency, some misspecifications may degrade the performance of LKA. Some
efforts have been made to refine the small-scale Q-matrix, however, it is
difficult to extend the scalability and apply these methods to the large-scale
online learning context with numerous items and massive skills. Moreover, the
existing LKA models employ flexible deep learning models that excel at this
task, but the adequacy of LKA is still challenged by the representation
capability of the models on the quite sparse item-skill graph and the learners'
exercise data. To overcome these issues, in this paper we propose a
prerequisite-driven Q-matrix refinement framework for learner knowledge
assessment (PQRLKA) in online context. We infer the prerequisites from
learners' response data and use it to refine the expert-defined Q-matrix, which
enables the interpretability and the scalability to apply it to the large-scale
online learning context. Based on the refined Q-matrix, we propose a
Metapath2Vec enhanced convolutional representation method to obtain the
comprehensive representations of the items with rich information, and feed them
to the PQRLKA model to finally assess the learners' knowledge. Experiments
conducted on three real-world datasets demonstrate the capability of our model
to infer the prerequisites for Q-matrix refinement, and also its superiority
for the LKA task.
- Abstract(参考訳): オンライン学習プラットフォームにおける学習トレースの豊富さは、学習者知識アセスメント(lka)へのユニークな洞察を約束している。
学習者の知識の正確な評価には、細粒度のq行列が必要である。
主観的傾向のため、いくつかの誤用はLKAの性能を低下させる可能性がある。
小型のQ行列を改良する試みはいくつかあるが、スケーラビリティを拡張し、多数の項目と膨大なスキルを備えた大規模オンライン学習環境に適用することは困難である。
さらに、既存のLKAモデルは、このタスクに優れた柔軟なディープラーニングモデルを採用しているが、非常にスパースなアイテムスキルグラフ上のモデルの表現能力と学習者の運動データにより、LKAの妥当性は依然として疑問視されている。
本稿では,オンラインコンテキストにおける学習者知識評価(pqrlka)のための前提条件駆動型q行列改良フレームワークを提案する。
学習者の応答データから前提条件を推測し、専門家定義のQ行列を改良し、解釈可能性とスケーラビリティを大規模オンライン学習コンテキストに適用できるようにする。
改良されたq行列に基づいて,メタパス2vec強化畳み込み表現法を提案し,豊富な情報を持つ項目の包括的表現を取得し,pqrlkaモデルに与え,最終的に学習者の知識を評価する。
3つの実世界のデータセットで行った実験は、q行列の洗練に必要な前提条件を推測するモデルの能力と、lkaタスクの優位性を示している。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Explainable LLM-driven Multi-dimensional Distillation for E-Commerce Relevance Learning [20.569157915157817]
電子商取引関連学習のための説明可能なLCM駆動多次元蒸留フレームワークを提案する。
提案手法は,eコマース関連学習性能とユーザエクスペリエンスを大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-20T05:30:15Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Predictive, scalable and interpretable knowledge tracing on structured domains [6.860460230412773]
PSI-KTは、個人の認知特性と知識の前提構造の両方が学習力学にどのように影響するかを明確にモデル化する階層的生成手法である。
PSI-KTは、学習者や歴史の学習者であっても、実世界の効率的なパーソナライズの必要性を目標にしている。
論文 参考訳(メタデータ) (2024-03-19T22:19:29Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - Attentive Q-Matrix Learning for Knowledge Tracing [4.863310073296471]
エンド・ツー・エンド・エンド・スタイルのモデルとして,Q-matrix-based Attentive Knowledge Tracing (QAKT)を提案する。
QAKTは、問題を階層的にモデル化し、生徒のシーケンスに基づいてq行列を効率的に学習することができる。
さらなる実験の結果、QAKTによって学習されたq行列は、人間の専門家によってラベル付けされたものよりも非常にモデルに依存し、情報に十分であることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T12:31:34Z) - Online Target Q-learning with Reverse Experience Replay: Efficiently
finding the Optimal Policy for Linear MDPs [50.75812033462294]
我々は,Q-ラーニングの実践的成功と悲観的理論的結果とのギャップを埋める。
本稿では,新しいQ-Rex法とQ-RexDaReを提案する。
Q-Rex は線形 MDP の最適ポリシを効率的に見つけることができる。
論文 参考訳(メタデータ) (2021-10-16T01:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。