論文の概要: TLSQKT: A Question-Aware Dual-Channel Transformer for Literacy Tracing from Learning Sequences
- arxiv url: http://arxiv.org/abs/2510.22488v1
- Date: Sun, 26 Oct 2025 02:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.217687
- Title: TLSQKT: A Question-Aware Dual-Channel Transformer for Literacy Tracing from Learning Sequences
- Title(参考訳): TLSQKT:学習シーケンスからのリテラシー追跡のための質問応答型デュアルチャネル変換器
- Authors: Zhifeng Wang, Yaowei Dong, Chunyan Zeng,
- Abstract要約: 知識追跡は、学生の知識状態が時間とともにどのように進化するかをモデル化することによって、パーソナライズされた学習を支援する。
我々は、このパラダイムをトランスフォーマーベースモデルTLSQKT(質問認識知識トレースを用いた学習シーケンス変換器)でインスタンス化する。
TLSQKTは、学生の反応とアイテムのセマンティクスを共同で符号化するデュアルチャネル設計を採用し、質問認識インタラクションと自己注意は学習者の進化する状態における長距離依存関係をキャプチャする。
- 参考スコア(独自算出の注目度): 4.119581464024065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge tracing (KT) supports personalized learning by modeling how students' knowledge states evolve over time. However, most KT models emphasize mastery of discrete knowledge components, limiting their ability to characterize broader literacy development. We reframe the task as Literacy Tracing (LT), which models the growth of higher-order cognitive abilities and literacy from learners' interaction sequences, and we instantiate this paradigm with a Transformer-based model, TLSQKT (Transformer for Learning Sequences with Question-Aware Knowledge Tracing). TLSQKT employs a dual-channel design that jointly encodes student responses and item semantics, while question-aware interaction and self-attention capture long-range dependencies in learners' evolving states. Experiments on three real-world datasets - one public benchmark, one private knowledge-component dataset, and one private literacy dataset - show that TLSQKT consistently outperforms strong KT baselines on literacy-oriented metrics and reveals interpretable developmental trajectories of learners' literacy. Transfer experiments further indicate that knowledge-tracing signals can be leveraged for literacy tracing, offering a practical route when dedicated literacy labels are limited. These findings position literacy tracing as a scalable component of intelligent educational systems and lay the groundwork for literacy evaluation in future large-scale educational models.
- Abstract(参考訳): 知識追跡(KT)は、学生の知識状態が時間とともにどのように進化するかをモデル化することによって、パーソナライズされた学習を支援する。
しかしながら、ほとんどのKTモデルは、個別の知識コンポーネントの習得を強調し、より広範なリテラシー開発を特徴づける能力を制限する。
我々は,学習者のインタラクションシーケンスから高次認知能力とリテラシーの成長をモデル化するリテラシートラクション(LT)としてタスクを再編成し,このパラダイムをトランスフォーマーベースモデルであるTLSQKT (Transformer for Learning Sequences with Question-Aware Knowledge Tracing)を用いてインスタンス化する。
TLSQKTは、学生の反応とアイテムのセマンティクスを共同で符号化するデュアルチャネル設計を採用し、質問認識インタラクションと自己注意は学習者の進化する状態における長距離依存関係をキャプチャする。
3つの実世界のデータセット(パブリックベンチマーク、1つのプライベートナレッジコンポーネントデータセット、1つのプライベートリテラシーデータセット)の実験は、TLSQKTがリテラシー指向のメトリクスで強いKTベースラインを一貫して上回り、学習者のリテラシーの解釈可能な発達軌跡を明らかにしていることを示している。
トランスファー実験は、知識追跡信号がリテラシー追跡に活用できることを示し、専用リテラシーラベルが限定された場合に実用的なルートを提供する。
これらの知見は、知的教育システムのスケーラブルな構成要素としてリテラシー追跡を位置づけ、将来の大規模教育モデルにおけるリテラシー評価の基礎を築いた。
関連論文リスト
- TRAIL: Joint Inference and Refinement of Knowledge Graphs with Large Language Models [5.678291291711662]
TRAILは思考、推論、インクリメンタルラーニングのための、新しく統合されたフレームワークである。
共同推論と動的KG精製を大きな言語モデルと組み合わせる。
複数のベンチマークでの大規模な実験により、TRAILは既存のKG拡張および検索拡張LDMベースラインを3%から13%上回った。
論文 参考訳(メタデータ) (2025-08-06T14:25:05Z) - Contrastive Cross-Course Knowledge Tracing via Concept Graph Guided Knowledge Transfer [12.34590941832835]
コントラストのあるクロスコース知識追跡手法であるTransKTを提案する。
それは、異なるコースにわたる学習行動間の関係をモデル化するために、知識伝達をガイドする概念グラフの上に構築される。
TransKTは、シングルコースとクロスコースの知識状態とを整合させる、対照的な目的を採用している。
論文 参考訳(メタデータ) (2025-05-14T10:38:30Z) - Enhancing LLM Knowledge Learning through Generalization [73.16975077770765]
我々は,LLMが様々な言い換えの文脈に与えられた同じ事実的知識トークンを継続的に予測する能力は,質問応答によってその知識を抽出する能力と正の相関性を示す。
そこで本稿では,LLMの知識獲得能力を高めるための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-03-05T17:56:20Z) - A Systematic Review of Knowledge Tracing and Large Language Models in Education: Opportunities, Issues, and Future Research [0.0]
大規模言語モデル(LLM)は、広大な自然言語データセット上で事前訓練されている。
本研究は,KTモデルとLLMを教育的文脈で組み合わせる際の共通点,機会,課題について考察する。
論文 参考訳(メタデータ) (2024-12-12T13:00:50Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Tabular Transfer Learning via Prompting LLMs [52.96022335067357]
大規模言語モデル(LLM)を用いたラベル付き(あるいは異種)ソースデータを利用した新しいフレームワークPrompt to Transfer (P2T)を提案する。
P2Tは、ターゲットタスク機能と強く相関しているソースデータセットの列の特徴を特定し、ターゲットタスクに関連する例を作成し、プロンプトの擬似宣言を生成する。
論文 参考訳(メタデータ) (2024-08-09T11:30:52Z) - Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - Leveraging Pedagogical Theories to Understand Student Learning Process with Graph-based Reasonable Knowledge Tracing [11.082908318943248]
本稿では,これらの問題に対処するためのグラフベースの合理的知識追跡手法GRKTを紹介する。
本稿では,知識検索,記憶強化,知識学習・鍛造の3段階モデリングプロセスを提案する。
論文 参考訳(メタデータ) (2024-06-07T10:14:30Z) - Predictive, scalable and interpretable knowledge tracing on structured domains [6.860460230412773]
PSI-KTは、個人の認知特性と知識の前提構造の両方が学習力学にどのように影響するかを明確にモデル化する階層的生成手法である。
PSI-KTは、学習者や歴史の学習者であっても、実世界の効率的なパーソナライズの必要性を目標にしている。
論文 参考訳(メタデータ) (2024-03-19T22:19:29Z) - Knowledgeable Salient Span Mask for Enhancing Language Models as
Knowledge Base [51.55027623439027]
我々は、モデルが構造化されていないテキストから、完全に自己教師された方法でより多くの知識を学習するのを助ける2つのソリューションを開発する。
最高の知識を得るために、私たちは、継続的事前学習における知識の完全な自己教師型学習を初めて探求します。
論文 参考訳(メタデータ) (2022-04-17T12:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。