論文の概要: CIKT: A Collaborative and Iterative Knowledge Tracing Framework with Large Language Models
- arxiv url: http://arxiv.org/abs/2505.17705v1
- Date: Fri, 23 May 2025 10:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.992025
- Title: CIKT: A Collaborative and Iterative Knowledge Tracing Framework with Large Language Models
- Title(参考訳): CIKT: 大規模言語モデルを用いた協調的かつ反復的な知識追跡フレームワーク
- Authors: Runze Li, Siyu Wu, Jun Wang, Wei Zhang,
- Abstract要約: 知識追跡は、学生の学習状態を時間とともにモデル化し、将来のパフォーマンスを予測することを目的としている。
従来のKTメソッドは、複雑な知識依存の説明可能性、スケーラビリティ、効果的なモデリングにおいてしばしば課題に直面します。
予測精度と説明可能性の両方を高めるために,大規模言語モデルを利用した協調反復的知識追跡(CIKT)を提案する。
- 参考スコア(独自算出の注目度): 14.273311275013057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Tracing (KT) aims to model a student's learning state over time and predict their future performance. However, traditional KT methods often face challenges in explainability, scalability, and effective modeling of complex knowledge dependencies. While Large Language Models (LLMs) present new avenues for KT, their direct application often struggles with generating structured, explainable student representations and lacks mechanisms for continuous, task-specific refinement. To address these gaps, we propose Collaborative Iterative Knowledge Tracing (CIKT), a framework that harnesses LLMs to enhance both prediction accuracy and explainability. CIKT employs a dual-component architecture: an Analyst generates dynamic, explainable user profiles from student historical responses, and a Predictor utilizes these profiles to forecast future performance. The core of CIKT is a synergistic optimization loop. In this loop, the Analyst is iteratively refined based on the predictive accuracy of the Predictor, which conditions on the generated profiles, and the Predictor is subsequently retrained using these enhanced profiles. Evaluated on multiple educational datasets, CIKT demonstrates significant improvements in prediction accuracy, offers enhanced explainability through its dynamically updated user profiles, and exhibits improved scalability. Our work presents a robust and explainable solution for advancing knowledge tracing systems, effectively bridging the gap between predictive performance and model transparency.
- Abstract(参考訳): 知識追跡(KT)は、学生の学習状態を時間とともにモデル化し、将来のパフォーマンスを予測することを目的としている。
しかしながら、従来のKTメソッドは、複雑な知識依存の説明可能性、スケーラビリティ、効果的なモデリングにおいてしばしば課題に直面します。
LLM(Large Language Models)は、KTのための新しい道を示すが、その直接的なアプリケーションは、構造化された説明可能な学生表現の生成に苦慮し、継続的なタスク固有の洗練のためのメカニズムを欠いていることが多い。
これらのギャップに対処するために,LLMを利用して予測精度と説明可能性を向上させるフレームワークである協調反復的知識追跡(CIKT)を提案する。
CIKTはデュアルコンポーネントアーキテクチャを採用しており、Analystは学生の履歴応答から動的で説明可能なユーザプロファイルを生成し、Predictorはこれらのプロファイルを使用して将来のパフォーマンスを予測する。
CIKTの中核は相乗最適化ループである。
このループでは、分析者は、生成されたプロファイルの条件である予測器の予測精度に基づいて反復的に洗練され、その後、これらの強化されたプロファイルを使用して予測器を再訓練する。
複数の教育データセットに基づいて評価されたCIKTは、予測精度の大幅な改善、動的に更新されたユーザプロファイルによる説明可能性の向上、スケーラビリティの向上を示す。
我々の研究は、予測性能とモデルの透明性のギャップを効果的に埋め、知識追跡システムを進化させるための堅牢で説明可能なソリューションを提示します。
関連論文リスト
- Can LLMs Assist Expert Elicitation for Probabilistic Causal Modeling? [0.0]
本研究では,構造化因果知識を抽出するための人間専門家の勧誘の代替として,Large Language Models (LLMs) の可能性について検討する。
LLMは因果構造、特にベイズネットワーク(BN)を生成し、従来の統計手法と比較した。
LLMが生成したBNは、専門家によって導かれ統計的に生成されたBNよりも低いエントロピーを示し、予測の信頼性と精度が示唆された。
論文 参考訳(メタデータ) (2025-04-14T16:45:52Z) - AdvKT: An Adversarial Multi-Step Training Framework for Knowledge Tracing [64.79967583649407]
知識追跡(KT)は、学生の知識状態を監視し、質問シーケンスに対する反応をシミュレートする。
既存のKTモデルは通常、単一ステップのトレーニングパラダイムに従っており、大きなエラーの蓄積につながる。
本稿では,多段階KTタスクに着目した新しい知識追跡のための多段階学習フレームワーク(AdvKT)を提案する。
論文 参考訳(メタデータ) (2025-04-07T03:31:57Z) - Improving Question Embeddings with Cognitiv Representation Optimization for Knowledge Tracing [77.14348157016518]
知識追跡(KT)は,学生の知識状況の変化を追跡し,過去の回答記録に基づいて将来の回答を予測することを目的としている。
KTモデリングに関する最近の研究は、既存の未更新の学習相互作用の記録に基づいて、学生の将来のパフォーマンスを予測することに焦点を当てている。
本稿では、動的プログラミングアルゴリズムを用いて認知表現の構造を最適化する知識追跡モデルのための認知表現最適化を提案する。
論文 参考訳(メタデータ) (2025-04-05T09:32:03Z) - Self-Explaining Neural Networks for Business Process Monitoring [2.8499886197917443]
我々は、私たちの知る限り、予測プロセス監視のための最初の*自己説明型ニューラルネットワーク*アーキテクチャを紹介します。
我々のフレームワークは、予測を提供するだけでなく、予測ごとに簡潔な説明を出力するLSTMモデルを訓練する。
提案手法は, 生成した説明の忠実さと効率の大幅な向上の両面から, ポストホックアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-23T13:28:34Z) - AAKT: Enhancing Knowledge Tracing with Alternate Autoregressive Modeling [23.247238358162157]
Knowledge Tracingは、学生の過去の演習と教育環境における追加情報に基づいて、将来のパフォーマンスを予測することを目的としている。
知識追跡のための自己回帰モデリングにおける主要な課題の1つは、運動を通して学習者の前(プレレスポンス)と後(ポストレスポンス)状態を効果的に表現することである。
本稿では, 自己回帰モデル(自己回帰モデル)の原理に則って, 知識追跡タスクを生成過程として扱うことによって, 新たな視点を提案する。
論文 参考訳(メタデータ) (2025-02-17T14:09:51Z) - Deep Sparse Latent Feature Models for Knowledge Graph Completion [24.342670268545085]
本稿では,知識グラフのためのスパース潜在特徴モデルの新たなフレームワークを提案する。
我々のアプローチは、欠落した三重項を効果的に完成するだけでなく、潜伏構造の明確な解釈可能性も提供する。
提案手法は,潜在コミュニティを明らかにし,解釈可能な表現を生成することにより,性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-11-24T03:17:37Z) - Predictive, scalable and interpretable knowledge tracing on structured domains [6.860460230412773]
PSI-KTは、個人の認知特性と知識の前提構造の両方が学習力学にどのように影響するかを明確にモデル化する階層的生成手法である。
PSI-KTは、学習者や歴史の学習者であっても、実世界の効率的なパーソナライズの必要性を目標にしている。
論文 参考訳(メタデータ) (2024-03-19T22:19:29Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Continual Learners are Incremental Model Generalizers [70.34479702177988]
本稿では,継続学習モデル(CL)が事前学習者に与える影響を幅広く研究する。
その結果, 微調整性能が著しく低下することなく, 表現の伝達品質が徐々に向上することがわかった。
本稿では,下流タスクの解法において,リッチなタスクジェネリック表現を保存できる新しい微調整方式GLobal Attention Discretization(GLAD)を提案する。
論文 参考訳(メタデータ) (2023-06-21T05:26:28Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。