論文の概要: Prerequisite-driven Q-matrix Refinement for Learner Knowledge
Assessment: A Case Study in Online Learning Context
- arxiv url: http://arxiv.org/abs/2208.12642v1
- Date: Wed, 24 Aug 2022 08:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:42:24.940693
- Title: Prerequisite-driven Q-matrix Refinement for Learner Knowledge
Assessment: A Case Study in Online Learning Context
- Title(参考訳): 学習者知識評価のための前提条件駆動Q行列再構成:オンライン学習文脈におけるケーススタディ
- Authors: Wenbin Gan and Yuan Sun
- Abstract要約: 本稿では,学習者知識評価(PQRLKA)のための前提条件駆動型Q行列改善フレームワークを提案する。
学習者の応答データから前提条件を推測し,それを用いて専門家定義Q行列を洗練する。
改良されたQ行列に基づいて,Metapath2Vec拡張畳み込み表現法を提案し,各項目の包括的表現を求める。
- 参考スコア(独自算出の注目度): 2.221779410386775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ever growing abundance of learning traces in the online learning
platforms promises unique insights into the learner knowledge assessment (LKA),
a fundamental personalized-tutoring technique for enabling various further
adaptive tutoring services in these platforms. Precise assessment of learner
knowledge requires the fine-grained Q-matrix, which is generally designed by
experts to map the items to skills in the domain. Due to the subjective
tendency, some misspecifications may degrade the performance of LKA. Some
efforts have been made to refine the small-scale Q-matrix, however, it is
difficult to extend the scalability and apply these methods to the large-scale
online learning context with numerous items and massive skills. Moreover, the
existing LKA models employ flexible deep learning models that excel at this
task, but the adequacy of LKA is still challenged by the representation
capability of the models on the quite sparse item-skill graph and the learners'
exercise data. To overcome these issues, in this paper we propose a
prerequisite-driven Q-matrix refinement framework for learner knowledge
assessment (PQRLKA) in online context. We infer the prerequisites from
learners' response data and use it to refine the expert-defined Q-matrix, which
enables the interpretability and the scalability to apply it to the large-scale
online learning context. Based on the refined Q-matrix, we propose a
Metapath2Vec enhanced convolutional representation method to obtain the
comprehensive representations of the items with rich information, and feed them
to the PQRLKA model to finally assess the learners' knowledge. Experiments
conducted on three real-world datasets demonstrate the capability of our model
to infer the prerequisites for Q-matrix refinement, and also its superiority
for the LKA task.
- Abstract(参考訳): オンライン学習プラットフォームにおける学習トレースの豊富さは、学習者知識アセスメント(lka)へのユニークな洞察を約束している。
学習者の知識の正確な評価には、細粒度のq行列が必要である。
主観的傾向のため、いくつかの誤用はLKAの性能を低下させる可能性がある。
小型のQ行列を改良する試みはいくつかあるが、スケーラビリティを拡張し、多数の項目と膨大なスキルを備えた大規模オンライン学習環境に適用することは困難である。
さらに、既存のLKAモデルは、このタスクに優れた柔軟なディープラーニングモデルを採用しているが、非常にスパースなアイテムスキルグラフ上のモデルの表現能力と学習者の運動データにより、LKAの妥当性は依然として疑問視されている。
本稿では,オンラインコンテキストにおける学習者知識評価(pqrlka)のための前提条件駆動型q行列改良フレームワークを提案する。
学習者の応答データから前提条件を推測し、専門家定義のQ行列を改良し、解釈可能性とスケーラビリティを大規模オンライン学習コンテキストに適用できるようにする。
改良されたq行列に基づいて,メタパス2vec強化畳み込み表現法を提案し,豊富な情報を持つ項目の包括的表現を取得し,pqrlkaモデルに与え,最終的に学習者の知識を評価する。
3つの実世界のデータセットで行った実験は、q行列の洗練に必要な前提条件を推測するモデルの能力と、lkaタスクの優位性を示している。
関連論文リスト
- A Question-centric Multi-experts Contrastive Learning Framework for
Improving the Accuracy and Interpretability of Deep Sequential Knowledge
Tracing Models [28.21027904008359]
知識追跡は,学生の今後の業績を予測する上で重要な役割を担っている。
ディープニューラルネットワーク(DNN)は、KT問題を解決する大きな可能性を示している。
しかし、KTプロセスのモデル化にディープラーニング技術を適用する際には、いくつかの重要な課題がある。
論文 参考訳(メタデータ) (2024-03-12T05:15:42Z) - A Survey on Knowledge Distillation of Large Language Models [102.84645991075283]
知識蒸留(KD)は、高度な能力をオープンソースモデルに転送するための重要な方法論である。
本稿では,大規模言語モデル(LLM)の領域におけるKDの役割を包括的に調査する。
論文 参考訳(メタデータ) (2024-02-20T16:17:37Z) - Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Attentive Q-Matrix Learning for Knowledge Tracing [4.863310073296471]
エンド・ツー・エンド・エンド・スタイルのモデルとして,Q-matrix-based Attentive Knowledge Tracing (QAKT)を提案する。
QAKTは、問題を階層的にモデル化し、生徒のシーケンスに基づいてq行列を効率的に学習することができる。
さらなる実験の結果、QAKTによって学習されたq行列は、人間の専門家によってラベル付けされたものよりも非常にモデルに依存し、情報に十分であることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T12:31:34Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - DKPLM: Decomposable Knowledge-enhanced Pre-trained Language Model for
Natural Language Understanding [19.478288026844893]
知識強化事前学習言語モデル(英: Knowledge-Enhanced Pre-trained Language Models, KEPLM)は、知識グラフから3重関係を注入して言語理解能力を向上させる事前学習モデルである。
従来の研究は、知識グラフから得られた知識を表現するための知識エンコーダとモデルを統合する。
本稿では,事前学習,微調整,推論段階における事前学習言語モデルの知識注入過程を分解する,DKPLMという新しいKEPLMを提案する。
論文 参考訳(メタデータ) (2021-12-02T08:19:42Z) - Online Target Q-learning with Reverse Experience Replay: Efficiently
finding the Optimal Policy for Linear MDPs [50.75812033462294]
我々は,Q-ラーニングの実践的成功と悲観的理論的結果とのギャップを埋める。
本稿では,新しいQ-Rex法とQ-RexDaReを提案する。
Q-Rex は線形 MDP の最適ポリシを効率的に見つけることができる。
論文 参考訳(メタデータ) (2021-10-16T01:47:41Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering [95.35905804211698]
本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2020-07-03T05:08:09Z) - Periodic Q-Learning [24.099046883918046]
いわゆる周期的Q-ラーニングアルゴリズム(略してPQ-ラーニング)について検討する。
PQ学習は、オンライン推定とターゲット推定の2つの別々のQ値推定を維持している。
標準的なQ-ラーニングとは対照的に、PQ-ラーニングは単純な有限時間解析を楽しみ、エプシロン最適ポリシーを見つけるためのより良いサンプルを得る。
論文 参考訳(メタデータ) (2020-02-23T00:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。