論文の概要: Enhancing Knowledge Tracing through Leakage-Free and Recency-Aware Embeddings
- arxiv url: http://arxiv.org/abs/2508.17092v1
- Date: Sat, 23 Aug 2025 17:13:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.338537
- Title: Enhancing Knowledge Tracing through Leakage-Free and Recency-Aware Embeddings
- Title(参考訳): リークフリーおよびRecency-Aware 埋め込みによる知識追跡の強化
- Authors: Yahya Badran, Christine Preisach,
- Abstract要約: 知識追跡(KT)は、学習コンテンツとのインタラクションのシーケンスに基づいて、学生の将来のパフォーマンスを予測することを目的としている。
いくつかのKTモデルはラベルの漏洩に対して脆弱であり、入力データが不注意に正しい答えを明らかにする。
本研究では,入力埋込み工法において,接地トラスラベルをマスキングすることで,ラベルの漏洩を防止する方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Tracing (KT) aims to predict a student's future performance based on their sequence of interactions with learning content. Many KT models rely on knowledge concepts (KCs), which represent the skills required for each item. However, some of these models are vulnerable to label leakage, in which input data inadvertently reveal the correct answer, particularly in datasets with multiple KCs per question. We propose a straightforward yet effective solution to prevent label leakage by masking ground-truth labels during input embedding construction in cases susceptible to leakage. To accomplish this, we introduce a dedicated MASK label, inspired by masked language modeling (e.g., BERT), to replace ground-truth labels. In addition, we introduce Recency Encoding, which encodes the step-wise distance between the current item and its most recent previous occurrence. This distance is important for modeling learning dynamics such as forgetting, which is a fundamental aspect of human learning, yet it is often overlooked in existing models. Recency Encoding demonstrates improved performance over traditional positional encodings on multiple KT benchmarks. We show that incorporating our embeddings into KT models like DKT, DKT+, AKT, and SAKT consistently improves prediction accuracy across multiple benchmarks. The approach is both efficient and widely applicable.
- Abstract(参考訳): 知識追跡(KT)は、学習コンテンツとのインタラクションのシーケンスに基づいて、学生の将来のパフォーマンスを予測することを目的としている。
多くのKTモデルは、各アイテムに必要なスキルを表す知識概念(KC)に依存している。
しかしながら、これらのモデルのいくつかはラベルの漏洩に弱いため、入力データが不注意に正しい答えを、特に質問毎に複数のKCを持つデータセットで明らかにする。
本研究では, 入力埋込工法において, 埋込時に地中ラベルをマスキングすることで, ラベルの漏洩を防止し, かつ効果的にラベルの漏洩を防止する方法を提案する。
これを実現するために,マスク付き言語モデリング(例えばBERT)にインスパイアされた専用のMASKラベルを導入する。
さらに,現在の項目と,その最新の発生までのステップワイド距離をエンコードするRecency Encodingを導入する。
この距離は、人間の学習の基本的な側面である忘れなどの学習力学をモデル化する上で重要であるが、既存のモデルでは見過ごされがちである。
Recency Encodingは、複数のKTベンチマークで従来の位置エンコーディングよりもパフォーマンスが向上している。
我々は,DKT,DKT+,AKT,SAKTなどのKTモデルへの埋め込みにより,複数のベンチマークにおける予測精度が一貫して向上することを示す。
このアプローチは効率的かつ広く適用できます。
関連論文リスト
- The Sweet Danger of Sugar: Debunking Representation Learning for Encrypted Traffic Classification [3.064166155269814]
本稿では、表現学習モデルを利用して交通表現を作成する提案を批判的に再評価する。
Pcap-Encoderは,プロトコルヘッダから特徴を抽出する,LMに基づく表現学習モデルである。
この結果から,データセット作成とモデルトレーニングの欠陥が明らかとなり,より優れた,より意識的なテスト設計が求められた。
論文 参考訳(メタデータ) (2025-07-22T10:32:50Z) - Hey, That's My Data! Label-Only Dataset Inference in Large Language Models [63.35066172530291]
CatShiftはラベルのみのデータセット推論フレームワークである。
LLMは、新しいデータに晒されたとき、学習した知識を上書きする傾向にある。
論文 参考訳(メタデータ) (2025-06-06T13:02:59Z) - Towards Robust Knowledge Tracing Models via k-Sparse Attention [33.02197868261949]
textscsparseKTは、注意に基づくDLKTアプローチの堅牢性と一般化を改善するための、シンプルで効果的なフレームワークである。
我々のテキストスパースKTは、注意的なKTモデルが無関係な学生の相互作用を取り除くのに役立つことを示す。
論文 参考訳(メタデータ) (2024-07-24T08:49:18Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Addressing Label Leakage in Knowledge Tracing Models [0.0]
本稿では,知識追跡(KT)モデルにおけるラベルの漏洩を防止する手法を提案する。
私たちの手法は、元の手法よりも一貫して優れています。
特に,本手法は多種多様なKTモデルに適用可能である。
論文 参考訳(メタデータ) (2024-03-22T15:54:30Z) - Improving Input-label Mapping with Demonstration Replay for In-context
Learning [67.57288926736923]
In-context Learning (ICL)は、大規模な自己回帰言語モデルの出現する能力である。
Sliding Causal Attention (RdSca) と呼ばれる新しいICL法を提案する。
ICL実験において,本手法は入力ラベルマッピングを大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-10-30T14:29:41Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Improved Adaptive Algorithm for Scalable Active Learning with Weak
Labeler [89.27610526884496]
Weak Labeler Active Cover (WL-AC)は、要求される精度を維持しながら、クエリの複雑さを低減するために、低品質の弱いラベルを堅牢に活用することができる。
受動学習と同一の精度を維持しつつラベル数を著しく削減し, 劣化したMNISTデータセット上での有効性を示す。
論文 参考訳(メタデータ) (2022-11-04T02:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。