論文の概要: Towards LLM-Empowered Knowledge Tracing via LLM-Student Hierarchical Behavior Alignment in Hyperbolic Space
- arxiv url: http://arxiv.org/abs/2602.22879v1
- Date: Thu, 26 Feb 2026 11:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.658334
- Title: Towards LLM-Empowered Knowledge Tracing via LLM-Student Hierarchical Behavior Alignment in Hyperbolic Space
- Title(参考訳): 双曲空間におけるLLMを用いた階層的行動アライメントによる知識追跡
- Authors: Xingcheng Fu, Shengpeng Wang, Yisen Gao, Xianxian Li, Chunpei Li, Qingyun Sun, Dongran Yu,
- Abstract要約: 知識追跡(KT)は、教育における継続的な学習状態のモニタリングを通じて、学生の概念を診断する。
既存の方法は、IDベースのシーケンスや浅いテキスト機能に依存している。
本稿では,大規模言語モデルハイパーボリックな知識追跡フレームワークを提案する。
- 参考スコア(独自算出の注目度): 24.868649493405528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Tracing (KT) diagnoses students' concept mastery through continuous learning state monitoring in education.Existing methods primarily focus on studying behavioral sequences based on ID or textual information.While existing methods rely on ID-based sequences or shallow textual features, they often fail to capture (1) the hierarchical evolution of cognitive states and (2) individualized problem difficulty perception due to limited semantic modeling. Therefore, this paper proposes a Large Language Model Hyperbolic Aligned Knowledge Tracing(L-HAKT). First, the teacher agent deeply parses question semantics and explicitly constructs hierarchical dependencies of knowledge points; the student agent simulates learning behaviors to generate synthetic data. Then, contrastive learning is performed between synthetic and real data in hyperbolic space to reduce distribution differences in key features such as question difficulty and forgetting patterns. Finally, by optimizing hyperbolic curvature, we explicitly model the tree-like hierarchical structure of knowledge points, precisely characterizing differences in learning curve morphology for knowledge points at different levels. Extensive experiments on four real-world educational datasets validate the effectiveness of our Large Language Model Hyperbolic Aligned Knowledge Tracing (L-HAKT) framework.
- Abstract(参考訳): 知識トレース(KT)は,学習における学習状態の連続的モニタリングを通じて,学生の概念を診断する。既存の手法は,IDやテキスト情報に基づく行動シーケンスの研究に重点を置いているが,既存の手法はIDベースのシーケンスや浅いテキストの特徴に依存しているが,(1)認知状態の階層的進化,(2)限定的セマンティックモデリングによる個別化問題難易度認知の獲得に失敗することが多い。
そこで本稿では,Large Language Model Hyperbolic Aligned Knowledge Tracing (L-HAKT)を提案する。
まず、教師エージェントは、質問の意味を深く解析し、知識ポイントの階層的依存関係を明示的に構築し、学生エージェントは学習行動をシミュレートして合成データを生成する。
そして、双曲空間における合成データと実データとの対比学習を行い、質問困難や忘れパターンといった重要な特徴の分布差を低減する。
最後に、双曲曲曲率を最適化することにより、知識点のツリーのような階層構造を明示的にモデル化し、異なるレベルの知識点に対する学習曲線形態の差異を正確に特徴づける。
4つの実世界の教育データセットに関する大規模な実験は、我々のLarge Language Model Hyperbolic Aligned Knowledge Tracing (L-HAKT)フレームワークの有効性を検証する。
関連論文リスト
- Mechanistic Interpretability of Cognitive Complexity in LLMs via Linear Probing using Bloom's Taxonomy [0.8665758002017515]
本研究では,ブルームの分類を階層レンズとして用いた認知複雑性の内的神経表現について検討した。
基本記憶(記憶)から抽象合成(記憶)まで、様々な認知レベルがモデルの残留ストリーム内で線形に分離可能であるかどうかを考察する。
論文 参考訳(メタデータ) (2026-02-19T10:19:04Z) - TLSQKT: A Question-Aware Dual-Channel Transformer for Literacy Tracing from Learning Sequences [4.119581464024065]
知識追跡は、学生の知識状態が時間とともにどのように進化するかをモデル化することによって、パーソナライズされた学習を支援する。
我々は、このパラダイムをトランスフォーマーベースモデルTLSQKT(質問認識知識トレースを用いた学習シーケンス変換器)でインスタンス化する。
TLSQKTは、学生の反応とアイテムのセマンティクスを共同で符号化するデュアルチャネル設計を採用し、質問認識インタラクションと自己注意は学習者の進化する状態における長距離依存関係をキャプチャする。
論文 参考訳(メタデータ) (2025-10-26T02:07:45Z) - LayerCake: Token-Aware Contrastive Decoding within Large Language Model Layers [53.43862310647276]
大規模言語モデル(LLM)は、自然言語の理解と生成に優れるが、事実の誤りに弱いままである。
本稿では,トークン型と最も影響力のあるトランスフォーマー層を整合させて実データ生成を改善する,トークン認識型コントラストデコーディング手法を提案する。
提案手法は追加のトレーニングやモデル修正を必要とせず,複数のLSMおよび各種ベンチマークの事実性を常に改善することを示す実験である。
論文 参考訳(メタデータ) (2025-07-06T14:35:43Z) - Semantic Mastery: Enhancing LLMs with Advanced Natural Language Understanding [0.0]
本稿では,より高度なNLU技術を用いて,大規模言語モデル(LLM)を進化させる最先端の方法論について論じる。
我々は、構造化知識グラフ、検索強化生成(RAG)、および人間レベルの理解とモデルにマッチする微調整戦略の利用を分析する。
論文 参考訳(メタデータ) (2025-04-01T04:12:04Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。