論文の概要: A Training-Free Large Reasoning Model-based Knowledge Tracing Framework for Unified Prediction and Prescription
- arxiv url: http://arxiv.org/abs/2601.01708v1
- Date: Mon, 05 Jan 2026 01:02:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.661415
- Title: A Training-Free Large Reasoning Model-based Knowledge Tracing Framework for Unified Prediction and Prescription
- Title(参考訳): 統一予測と処方のための学習自由大推論モデルに基づく知識追跡フレームワーク
- Authors: Unggi Lee, Joo Young Kim, Ran Ju, Minyoung Jung, Jeyeon Eo,
- Abstract要約: Thinking-KTはテスト時間スケーリング(TTS)を組み込んだトレーニング不要のKTフレームワーク
以上の結果から,RTSはLLMベースのKTにおいて重要で未探索の因子であることが示された。
- 参考スコア(独自算出の注目度): 3.3366918244744617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Knowledge Tracing (KT) aims to estimate a learner's evolving mastery based on interaction histories. Recent studies have explored Large Language Models (LLMs) for KT via autoregressive nature, but such approaches typically require fine-tuning and exhibit unstable or near-random performance. Moreover, prior KT systems primarily focus on prediction and rely on multi-stage pipelines for feedback and recommendation, resulting in increased system complexity and resources. To address this gap, we propose Thinking-KT, a training-free KT framework that incorporates Test-Time Scaling (TTS), enabling even small LLMs to achieve competitive KT performance. Moreover, in this framework, a small LLM can jointly perform KT prediction, personalized feedback generation, and learning recommendation in a unified output without degrading prediction accuracy. Beyond performance, we present the systematic analysis of reasoning traces in KT. Our results demonstrate that TTS is a critical yet underexplored factor in LLM-based KT, and that small LLMs can serve as unified ITS engines.
- Abstract(参考訳): 知識追跡(KT)は、インタラクション履歴に基づいて学習者の進化する熟達を推定することを目的としている。
近年,KTのための大規模言語モデル (LLM) を自己回帰的性質を用いて検討しているが,このような手法は一般に微調整が必要であり,不安定あるいはほぼランダムな性能を示す。
さらに、以前のKTシステムは主に予測に重点を置いており、フィードバックとレコメンデーションのためにマルチステージパイプラインに依存しており、結果としてシステムの複雑さとリソースが増加する。
このギャップに対処するため,テスト時間スケーリング(TTS)を組み込んだトレーニングフリーなKTフレームワークであるThinking-KTを提案する。
さらに、このフレームワークでは、小さなLLMが、予測精度を劣化させることなく、KT予測、パーソナライズされたフィードバック生成、学習推奨を統一出力で共同で行うことができる。
KTにおける推論トレースの系統的解析について述べる。
以上の結果から,TSはLLMをベースとしたKTにおいて重要な要素でありながら未探索の要素であり,小型のLLMがインテリジェンスエンジンとして機能できることが示唆された。
関連論文リスト
- Supervised Fine-Tuning or Contrastive Learning? Towards Better Multimodal LLM Reranking [56.46309219272326]
大型言語モデル(LLM)では、教師付き微調整(SFT)による分類は、関連する(非関連)ペアに対して'yes' (resp. ''no')トークンを予測する。
この分散は中心的な疑問を提起する:どの目的がLLMベースのリランクに本質的に適しているか、どのメカニズムが違いの根底にあるのか?
我々はCLとSFTの総合的な比較と分析を行い、ユニバーサルマルチモーダル検索(UMR)を実験場とした。
論文 参考訳(メタデータ) (2025-10-16T16:02:27Z) - Beyond Naïve Prompting: Strategies for Improved Zero-shot Context-aided Forecasting with LLMs [57.82819770709032]
大規模言語モデル (LLM) は、na "ive direct prompting" を通じて効果的な文脈支援予測を行うことができる。
ReDPは、明確な推論トレースを抽出することで、解釈可能性を改善し、コンテキスト上でモデルの推論を評価することができる。
CorDPはLLMを活用して、既存の予測をコンテキストで洗練し、現実の予測パイプラインにおける適用性を高める。
IC-DPは、文脈支援予測タスクの歴史的例を即時に組み込むことを提案し、大規模モデルにおいても精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-13T16:02:55Z) - TRACT: Regression-Aware Fine-tuning Meets Chain-of-Thought Reasoning for LLM-as-a-Judge [59.57934574562651]
TRACT(Two-stage Regression-Aware fine-tuning with CoT)は、CoT推論と回帰学習を組み合わせた手法である。
4つの LLM-as-a-judge データセットと2つの LLM データセットによる実験により、TRACT が既存の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-03-06T12:33:20Z) - A Little Help Goes a Long Way: Efficient LLM Training by Leveraging Small LMs [74.35290684163718]
大規模言語モデル(LLM)開発における最大の課題は、その面倒な事前トレーニングコストである。
本稿では,小言語モデル(SLM)を活用して,LLMの事前学習効率と品質を改善するための有望なパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-10-24T14:31:52Z) - Not All Options Are Created Equal: Textual Option Weighting for Token-Efficient LLM-Based Knowledge Tracing [0.14999444543328289]
大規模言語モデル(LLM)が知識追跡のための有望なツールとして登場した。
実例学習者のインタラクション履歴を文脈でエンコードするフレームワークであるtextitLLM を用いた Option-weighted Knowledge Tracing (LOKT) を提案する。
LOKTはスケーラブルでコスト効率のよい推論を可能にし、厳密なトークン制約の下でも強力なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-14T16:25:48Z) - Improving Low-Resource Knowledge Tracing Tasks by Supervised Pre-training and Importance Mechanism Fine-tuning [25.566963415155325]
上記の課題に対処するため,低リソースのKTフレームワークであるLoReKTを提案する。
一般的な"事前学習と微調整"パラダイムにインスパイアされた我々は、リッチリソースのKTデータセットから転送可能なパラメータと表現を学習することを目指している。
複数のKTデータソースからの学生のインタラクションを組み込むエンコーディング機構を設計する。
論文 参考訳(メタデータ) (2024-03-11T13:44:43Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。