論文の概要: MERIT: Memory-Enhanced Retrieval for Interpretable Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2603.22289v1
- Date: Tue, 03 Mar 2026 10:07:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:12.974081
- Title: MERIT: Memory-Enhanced Retrieval for Interpretable Knowledge Tracing
- Title(参考訳): MERIT: 解釈可能な知識追跡のためのメモリ拡張検索
- Authors: Runze Li, Kedi Chen, Guwei Feng, Mo Yu, Jun Wang, Wei Zhang,
- Abstract要約: 大きな言語モデル(LLM)は強力な推論能力を提供するが、限られたコンテキストウィンドウや幻覚に苦しむ。
MERIT(Memory-Enhanced Retrieval for Interpretable Knowledge Tracing)は,凍結LDM推論と構造化ペタゴジカルメモリを組み合わせた学習自由フレームワークである。
LLMを解釈可能なメモリにグラウンドすることで、MERITは勾配更新なしで現実世界のデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 23.48465917752293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Tracing (KT) models students' evolving knowledge states to predict future performance, serving as a foundation for personalized education. While traditional deep learning models achieve high accuracy, they often lack interpretability. Large Language Models (LLMs) offer strong reasoning capabilities but struggle with limited context windows and hallucinations. Furthermore, existing LLM-based methods typically require expensive fine-tuning, limiting scalability and adaptability to new data. We propose MERIT (Memory-Enhanced Retrieval for Interpretable Knowledge Tracing), a training-free framework combining frozen LLM reasoning with structured pedagogical memory. Rather than updating parameters, MERIT transforms raw interaction logs into an interpretable memory bank. The framework uses semantic denoising to categorize students into latent cognitive schemas and constructs a paradigm bank where representative error patterns are analyzed offline to generate explicit Chain-of-Thought (CoT) rationales. During inference, a hierarchical routing mechanism retrieves relevant contexts, while a logic-augmented module applies semantic constraints to calibrate predictions. By grounding the LLM in interpretable memory, MERIT achieves state-of-the-art performance on real-world datasets without gradient updates. This approach reduces computational costs and supports dynamic knowledge updates, improving the accessibility and transparency of educational diagnosis.
- Abstract(参考訳): 知識追跡(KT)は、学生の進化する知識状態をモデル化し、将来のパフォーマンスを予測し、パーソナライズされた教育の基盤として機能する。
従来のディープラーニングモデルは高い精度を達成するが、解釈可能性に欠けることが多い。
大きな言語モデル(LLM)は強力な推論能力を提供するが、限られたコンテキストウィンドウや幻覚に苦しむ。
さらに、既存のLCMベースのメソッドは、通常、高価な微調整を必要とし、スケーラビリティと新しいデータへの適応性を制限する。
MERIT(Memory-Enhanced Retrieval for Interpretable Knowledge Tracing)は,凍結LDM推論と構造化ペタゴジカルメモリを組み合わせた学習自由フレームワークである。
パラメータを更新する代わりに、MERITは生の対話ログを解釈可能なメモリバンクに変換する。
このフレームワークは意味論を用いて、学生を潜在認知スキーマに分類し、代表的エラーパターンをオフラインで分析して明確なCoT(Chain-of-Thought)論理を生成するパラダイムバンクを構築する。
推論中、階層的ルーティング機構は関連するコンテキストを検索し、一方、論理拡張モジュールは予測をキャリブレーションするためにセマンティック制約を適用する。
LLMを解釈可能なメモリにグラウンドすることで、MERITは勾配更新なしで現実世界のデータセット上で最先端のパフォーマンスを達成する。
このアプローチは計算コストを削減し、動的知識更新をサポートし、教育診断のアクセシビリティと透明性を向上させる。
関連論文リスト
- The AI Hippocampus: How Far are We From Human Memory? [77.04745635827278]
インプリシットメモリは、事前訓練されたトランスフォーマーの内部パラメータに埋め込まれた知識を指す。
明示メモリは、動的でクエリ可能な知識表現でモデル出力を増大させるように設計された外部ストレージと検索コンポーネントを含んでいる。
エージェントメモリは、自律エージェント内に永続的、時間的に拡張されたメモリ構造を導入する。
論文 参考訳(メタデータ) (2026-01-14T03:24:08Z) - From Experience to Strategy: Empowering LLM Agents with Trainable Graph Memory [48.22750809620306]
大規模言語モデル(LLM)に基づくエージェントは、自律的なタスク解決において顕著な可能性を示している。
本稿では,エージェント中心型,トレーニング可能な,多層グラフメモリフレームワークを提案する。
コンテクストメモリがLLMの情報活用能力をいかに向上させるかを示す。
論文 参考訳(メタデータ) (2025-11-11T03:36:33Z) - Learning from Supervision with Semantic and Episodic Memory: A Reflective Approach to Agent Adaptation [11.819481846962447]
本研究では,事前訓練された大規模言語モデル上に構築されたエージェントが,パラメータ更新なしでラベル付き例からターゲット分類関数を学習する方法について検討する。
我々のフレームワークは、エピソードメモリを使用して、インスタンスレベルの批判を保存し、それらを再利用可能なタスクレベルのガイダンスに蒸留する。
我々の研究は、より適応的で解釈可能なLLMエージェントを構築するためのメモリ駆動型反射学習の可能性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-10-22T17:58:03Z) - ReaLM: Residual Quantization Bridging Knowledge Graph Embeddings and Large Language Models [18.720486146234077]
大言語モデル(LLM)は知識グラフ補完(KGC)の強力なパラダイムとして登場した。
我々は、KG埋め込みとLLMトークン化のギャップを埋める、新しく効果的なフレームワークであるReaLMを提案する。
本稿では,ReaLMが最先端性能を実現し,構造化知識と大規模言語モデルとの整合性を確認した。
論文 参考訳(メタデータ) (2025-10-10T04:36:13Z) - Pushing LLMs to Their Logical Reasoning Bound: The Role of Data Reasoning Intensity [59.27594125465172]
データ推論強度 (Data Reasoning Intensity, DRI) は, サンプルの潜在論理的推論複雑性を定量化する新しい指標である。
次に、学習データの論理的推論強度を体系的に強化する再認識最適化戦略を導入する。
論文 参考訳(メタデータ) (2025-09-29T14:20:04Z) - Explaining Fine Tuned LLMs via Counterfactuals A Knowledge Graph Driven Framework [13.533352973355013]
Low-Rank Adaptation (LoRA)は、大きな言語モデルでドメイン固有の知識を驚くほど効率よく取得することを可能にする。
本研究は,知識グラフを基盤としたファクトファクトを介し,微調整 LLM を記述した新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-25T14:37:40Z) - TRAIL: Joint Inference and Refinement of Knowledge Graphs with Large Language Models [5.678291291711662]
TRAILは思考、推論、インクリメンタルラーニングのための、新しく統合されたフレームワークである。
共同推論と動的KG精製を大きな言語モデルと組み合わせる。
複数のベンチマークでの大規模な実験により、TRAILは既存のKG拡張および検索拡張LDMベースラインを3%から13%上回った。
論文 参考訳(メタデータ) (2025-08-06T14:25:05Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。