論文の概要: LLM-driven Effective Knowledge Tracing by Integrating Dual-channel Difficulty
- arxiv url: http://arxiv.org/abs/2502.19915v1
- Date: Thu, 27 Feb 2025 09:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:57:59.294011
- Title: LLM-driven Effective Knowledge Tracing by Integrating Dual-channel Difficulty
- Title(参考訳): デュアルチャネルの難易度統合によるLLMによる効果的な知識追跡
- Authors: Jiahui Cen, Jianghao Lin, Weizhong Xuan, Dong Zhou, Jin Chen, Aimin Yang, Yongmei Zhou,
- Abstract要約: 本稿では,新しいDual-channel Difficulty-Aware Knowledge Tracing (DDKT) フレームワークを提案する。
難易度測定のための難易度バイアス対応アルゴリズムと生徒の熟達アルゴリズムが組み込まれている。
本枠組みでは,(1)困難バランス知覚系列(DBPS)-学生の主観的知覚と目的的難易度, LLM評価難易度, 数理統計的難易度, および学生の主観的認識の難易度を, (2)難易度比(DMR) - 難易度ゾーンによる生徒の熟達度を正確にモデル化すること,(3)知識状態更新機構 - ゲートによるパーソナライズされた知識獲得を実現すること,の3つを紹介している。
- 参考スコア(独自算出の注目度): 9.683271515093994
- License:
- Abstract: Knowledge Tracing (KT) is a fundamental technology in intelligent tutoring systems used to simulate changes in students' knowledge state during learning, track personalized knowledge mastery, and predict performance. However, current KT models face three major challenges: (1) When encountering new questions, models face cold-start problems due to sparse interaction records, making precise modeling difficult; (2) Traditional models only use historical interaction records for student personalization modeling, unable to accurately track individual mastery levels, resulting in unclear personalized modeling; (3) The decision-making process is opaque to educators, making it challenging for them to understand model judgments. To address these challenges, we propose a novel Dual-channel Difficulty-aware Knowledge Tracing (DDKT) framework that utilizes Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG) for subjective difficulty assessment, while integrating difficulty bias-aware algorithms and student mastery algorithms for precise difficulty measurement. Our framework introduces three key innovations: (1) Difficulty Balance Perception Sequence (DBPS) - students' subjective perceptions combined with objective difficulty, measuring gaps between LLM-assessed difficulty, mathematical-statistical difficulty, and students' subjective perceived difficulty through attention mechanisms; (2) Difficulty Mastery Ratio (DMR) - precise modeling of student mastery levels through different difficulty zones; (3) Knowledge State Update Mechanism - implementing personalized knowledge acquisition through gated networks and updating student knowledge state. Experimental results on two real datasets show our method consistently outperforms nine baseline models, improving AUC metrics by 2% to 10% while effectively addressing cold-start problems and enhancing model interpretability.
- Abstract(参考訳): 知識追跡(KT)は、学習中の生徒の知識状態の変化をシミュレートし、パーソナライズされた知識の熟達を追跡し、パフォーマンスを予測するために使用される知的学習システムの基本技術である。
しかし、現在のKTモデルは、(1)新しい質問に直面すると、疎相互作用記録によるコールドスタート問題に直面し、正確なモデリングを困難にすること、(2)学生のパーソナライゼーションモデリングにしか使われず、個々の熟達レベルを正確に追跡できないこと、(3)意思決定プロセスは教育者にとって不透明であり、モデル判断を理解するのが難しいこと、の3つの大きな課題に直面している。
これらの課題に対処するため,大規模言語モデル(LLM)と検索拡張生成(RAG)を主観的難易度評価に用い,難易度バイアス認識アルゴリズムと学生の熟達アルゴリズムを統合したDDKT(Dual-channel Difficulty-Aware Knowledge Tracing)フレームワークを提案する。
本枠組みでは,(1)難易度バランス知覚シーケンス (DBPS) - 学生の主観的知覚と目的的難易度, LLM評価難易度, 数学的統計難易度, および学生の主観的認識の難易度を, (2)難易度尺度 (DMR) - 異なる難易度ゾーンを通じて, 生徒の熟達度を正確にモデル化する,(3) 知識状態更新機構 - ゲートネットワークによるパーソナライズされた知識獲得と,学生の知識状態の更新を行う。
2つの実データを用いた実験結果から,本手法は9つのベースラインモデルより一貫して優れ,AUCの指標を2%から10%向上させるとともに,コールドスタート問題に効果的に対処し,モデルの解釈可能性を向上させる。
関連論文リスト
- Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - LLM-based Cognitive Models of Students with Misconceptions [55.29525439159345]
本稿では,この2つの要件を満たすためにLLM(Large Language Models)を命令調整できるかどうかを検討する。
真正な学生ソリューションパターンを反映したデータセットを生成する新しいPythonライブラリであるMalAlgoPyを紹介する。
我々の洞察は、AIに基づく学生モデルの理解を高め、効果的な適応学習システムへの道を開く。
論文 参考訳(メタデータ) (2024-10-16T06:51:09Z) - Enhancing Spatio-temporal Quantile Forecasting with Curriculum Learning: Lessons Learned [11.164896279040379]
問題時間データ(ST)データのトレーニングモデルは、データ自体の複雑で多様な性質のため、オープンな積み重ねとなる。
モデルの性能が元のSTデータに基づいて直接訓練されることを保証することは困難である。
本稿では,空間的,時間的,定量的な視点を対象とする3種類のカリキュラム学習を取り入れた革新的パラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-18T15:23:10Z) - Student Data Paradox and Curious Case of Single Student-Tutor Model: Regressive Side Effects of Training LLMs for Personalized Learning [25.90420385230675]
パーソナライズされた教育の追求は、知的学習システムの開発におけるLarge Language Models(LLM)の統合につながった。
我々の研究は、このアプローチの根本的な課題を明らかにする:学生データパラドックス」
このパラドックスは、学習者の行動を理解するために学生データに基づいて訓練されたLLMが、故意に自身の事実的知識と推論能力を損なうときに現れる。
論文 参考訳(メタデータ) (2024-04-23T15:57:55Z) - Explainable data-driven modeling via mixture of experts: towards
effective blending of grey and black-box models [6.331947318187792]
専門家の混成」の理論的根拠に基づく包括的枠組みを提案する。
このアプローチは、多様なローカルモデルのデータベースの融合を可能にする。
我々は,解釈可能性を高めるために,専門家の組み合わせの急激な変化を罰する。
論文 参考訳(メタデータ) (2024-01-30T15:53:07Z) - Difficulty-Focused Contrastive Learning for Knowledge Tracing with a
Large Language Model-Based Difficulty Prediction [2.8946115982002443]
本稿では,知識追跡モデル(KT)の性能向上のための新しい手法を提案する。
KTモデルに対する難易度中心のコントラスト学習手法と難易度予測のためのLarge Language Model(LLM)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-19T06:26:25Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Distantly-Supervised Named Entity Recognition with Adaptive Teacher
Learning and Fine-grained Student Ensemble [56.705249154629264]
NERモデルの堅牢性を改善するために,自己学習型教員学生フレームワークを提案する。
本稿では,2つの教員ネットワークからなる適応型教員学習を提案する。
微粒な学生アンサンブルは、教師モデルの各フラグメントを、生徒の対応するフラグメントの時間移動平均で更新し、各モデルフラグメントのノイズに対する一貫した予測を強化する。
論文 参考訳(メタデータ) (2022-12-13T12:14:09Z) - Knowledge Tracing for Complex Problem Solving: Granular Rank-Based
Tensor Factorization [6.077274947471846]
グラニュラーRAnkに基づくTEnsor Factorization (GRATE) を用いた新しい学生知識追跡手法を提案する。
GRATEは、問題における生徒のパフォーマンスを予測し、それらに提示される概念を発見しながら集約できる学生の試みを選択する。
実世界の3つのデータセットに対する実験は、最先端のベースラインに比べてGRATEの性能が向上したことを示している。
論文 参考訳(メタデータ) (2022-10-06T06:22:46Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。