論文の概要: Live Knowledge Tracing: Real-Time Adaptation using Tabular Foundation Models
- arxiv url: http://arxiv.org/abs/2602.06542v1
- Date: Fri, 06 Feb 2026 09:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.32379
- Title: Live Knowledge Tracing: Real-Time Adaptation using Tabular Foundation Models
- Title(参考訳): Live Knowledge Tracing: タブラル基礎モデルを用いたリアルタイム適応
- Authors: Mounir Lbath, Alexandre Paresy, Abdelkayoum Kaddouri, Alan André, Alexandre Ittah, Jill-Jênn Vie,
- Abstract要約: ディープ・ナレッジ・トレーシング・モデルは、学生の学習軌跡をモデル化する上で大きなブレークスルーを達成している。
固定トレーニングセットでのオフライントレーニングを必要とする従来の手法では、オンライン手法でリアルタイムの'生きた'知識トレースを実行しています。
最大273倍のスピードアップで予測競合性能を達成できることを示す。
- 参考スコア(独自算出の注目度): 67.75857052135154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep knowledge tracing models have achieved significant breakthroughs in modeling student learning trajectories. However, these architectures require substantial training time and are prone to overfitting on datasets with short sequences. In this paper, we explore a new paradigm for knowledge tracing by leveraging tabular foundation models (TFMs). Unlike traditional methods that require offline training on a fixed training set, our approach performs real-time ''live'' knowledge tracing in an online way. The core of our method lies in a two-way attention mechanism: while attention knowledge tracing models only attend across earlier time steps, TFMs simultaneously attend across both time steps and interactions of other students in the training set. They align testing sequences with relevant training sequences at inference time, therefore skipping the training step entirely. We demonstrate, using several datasets of increasing size, that our method achieves competitive predictive performance with up to 273x speedups, in a setting where more student interactions are observed over time.
- Abstract(参考訳): ディープ・ナレッジ・トレーシング・モデルは、学生の学習軌跡をモデル化する上で大きなブレークスルーを達成している。
しかしながら、これらのアーキテクチャは相当なトレーニング時間を必要とし、短いシーケンスを持つデータセットに過度に適合する傾向がある。
本稿では,表層基礎モデル(TFM)を利用した知識追跡の新しいパラダイムについて検討する。
固定トレーニングセットでのオフライントレーニングを必要とする従来の方法とは異なり、我々のアプローチはオンラインの方法でリアルタイムの'生きた'知識トレースを実行します。
注意知識追跡モデルが早期の時間ステップにのみ参加するのに対して,TFMはトレーニングセット内の他の学生の時間ステップとインタラクションの両方に同時に参加する。
テストシーケンスと関連するトレーニングシーケンスを推論時に一致させるため、トレーニングステップを完全にスキップする。
提案手法は,最大273倍のスピードアップで,学生同士の相互作用が時間とともに観測されるような環境で,競争力のある予測性能を実現することを実証する。
関連論文リスト
- CTA: Cross-Task Alignment for Better Test Time Training [10.54024648915477]
テストタイムトレーニング(TTT)は、モデルロバスト性を高める効果的な方法として登場した。
CTA(Cross-Task Alignment)は,TTTを改善するための新しいアプローチである。
いくつかのベンチマークデータセット上で、最先端技術よりもロバスト性や一般化が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2025-07-07T17:33:20Z) - UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - TrACT: A Training Dynamics Aware Contrastive Learning Framework for Long-tail Trajectory Prediction [7.3292387742640415]
本稿では,よりリッチなトレーニングダイナミックス情報を,原型的コントラスト学習フレームワークに組み込むことを提案する。
我々は,2つの大規模自然主義データセットを用いたアプローチの実証評価を行った。
論文 参考訳(メタデータ) (2024-04-18T23:12:46Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [65.57123249246358]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - A Practical Incremental Method to Train Deep CTR Models [37.54660958085938]
本稿では,3つの分離モジュールからなる深部CTRモデルを訓練するための実用的なインクリメンタル手法を提案する。
提案手法は従来のバッチモード学習と同等の性能を達成でき,訓練効率も向上する。
論文 参考訳(メタデータ) (2020-09-04T12:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。