論文の概要: Ken Utilization Layer: Hebbian Replay Within a Student's Ken for Adaptive Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2507.00032v1
- Date: Wed, 18 Jun 2025 00:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.397629
- Title: Ken Utilization Layer: Hebbian Replay Within a Student's Ken for Adaptive Knowledge Tracing
- Title(参考訳): Kenの活用レイヤ: 適応的な知識追跡のための学生のKen内でのHebbian Replay
- Authors: Grey Kuling, Marinka Zitnik,
- Abstract要約: KUL-KTは、生物学的にインスパイアされた知識追跡アーキテクチャ(KT)である
Hebbianメモリエンコーディングとグラデーションベースの統合を、スケーラブルで入力に依存しないフレームワークで組み合わせる。
i) 優雅な記憶を可能にするヘビアンメモリ更新, (ii) 理想的な内部状態を計算するためのロス整合型内部ターゲット (LIT) メソッド。
- 参考スコア(独自算出の注目度): 11.25951282067287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce KUL-KT, a biologically inspired architecture for knowledge tracing (KT), combining Hebbian memory encoding with gradient-based consolidation in a scalable, input-agnostic framework. KUL-KT adapts the principle of memory consolidation in neural systems, to student modeling by introducing two key innovations: (i) a time-decaying Hebbian memory update that enables graceful forgetting, and (ii) a novel Loss-aligned Internal Target (LIT) method to compute an ideal internal state, allowing continual learning without backpropagation through time. The architecture consists of a fast Hebbian memory that captures each learner interaction via a single associative update, and a slower linear network that consolidates recalled samples through gradient descent. This design enables few-shot personalization and natural forgetting without storing raw data or relying on large cohort training. Operating entirely in embedding space, KUL-KT supports both structured (tabular) and unstructured (short-answer) inputs. Empirically, KUL-KT outperforms strong baselines on ten public KT benchmarks in rank-sensitive metrics such as nDCG and Recall@10. In a classroom deployment, KUL-KT personalized quizzes from short-answer data, leading to improved learner-perceived helpfulness and reduced difficulty (p < 0.05). Ablation studies confirm that Hebbian decay and LIT are critical for continual adaptation. Compared to a strong graph-based KT model, KUL-KT trains 1.75x faster and uses 99.01\% less memory. These results position KUL-KT as a biologically grounded, memory-efficient, and input-flexible framework for personalized learning at scale.
- Abstract(参考訳): KUL-KTは生物学的にインスパイアされた知識追跡(KT)アーキテクチャであり,Helbianメモリエンコーディングと勾配に基づく統合をスケーラブルで入力に依存しないフレームワークで組み合わせたものである。
KUL-KTは、ニューラルネットワークにおけるメモリ統合の原理を、2つの重要なイノベーションを導入して学生モデリングに適用する。
(i)優雅な忘れ物を可能にするヘビーンのメモリ更新、及び
(II)ロス整合型内部目標法(LIT)により理想的な内部状態を計算し、時間の経過とともに逆転することなく連続的な学習を可能にする。
このアーキテクチャは、1つの連想更新によって各学習者のインタラクションをキャプチャする高速なHebbianメモリと、勾配降下によってリコールされたサンプルを集約する遅い線形ネットワークで構成されている。
この設計は、生データを保存したり、大規模なコホートトレーニングに頼ることなく、ほとんどショットのパーソナライズや自然な忘れ方を可能にする。
完全に埋め込み空間で動作するKUL-KTは、構造化された(タブラル)入力と非構造化された(ショートアンサー)入力の両方をサポートする。
KUL-KTは、nDCGやRecall@10といったランクセンシティブな指標において、10の公開KTベンチマークにおいて、強いベースラインを上回ります。
教室配置では、KUL-KTは短問合せデータからクイズをパーソナライズし、学習者の有用性の向上と難易度低減を実現した(p < 0.05)。
アブレーション研究は、ヘビアン崩壊とLITが継続的な適応に重要であることを証明している。
強力なグラフベースのKTモデルと比較して、KUL-KTは1.75倍高速で、99.01\%少ないメモリを使用する。
これらの結果は,KUL-KTを大規模学習のための生物学的基盤,メモリ効率,入力フレキシブルなフレームワークとして位置づけた。
関連論文リスト
- Buffer-free Class-Incremental Learning with Out-of-Distribution Detection [18.706435793435094]
クラスインクリメンタルラーニング(CIL)は、オープンワールドシナリオにおいて大きな課題となる。
本稿では,ポストホックOOD検出手法の詳細な解析を行い,メモリバッファの必要性を解消する可能性について検討する。
このバッファフリー手法は,クラスインクリメンタル学習と未知サンプルの拒絶という両面において,バッファベースの手法と同等あるいは優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2025-05-29T13:01:00Z) - On the Convergence of Continual Federated Learning Using Incrementally Aggregated Gradients [2.2530496464901106]
機械学習の聖杯は、連続的フェデレーション学習(CFL)によって、ストリーミングデータから学習しながら、AIシステムの効率、プライバシ、スケーラビリティを高めることである。
本稿では、エッジベースのメモリ勾配更新と、現在のデータに対する集約勾配からなる新しいリプレイメモリベースのフェデレーション戦略を提案する。
我々は,C-FLAGが,タスクとクラスインクリメンタル設定の両方において,精度や忘れなどの指標に関して,最先端のベースラインを上回っていることを実証的に示す。
論文 参考訳(メタデータ) (2024-11-12T17:36:20Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Improving Performance in Continual Learning Tasks using Bio-Inspired
Architectures [4.2903672492917755]
我々は,シナプスの可塑性機構とニューロ変調を組み込んだ,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
提案手法により,Split-MNIST,Split-CIFAR-10,Split-CIFAR-100データセット上でのオンライン連続学習性能が向上する。
さらに,鍵設計概念を他のバックプロパゲーションに基づく連続学習アルゴリズムに統合することにより,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T19:12:52Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - LANA: Towards Personalized Deep Knowledge Tracing Through
Distinguishable Interactive Sequences [21.67751919579854]
今後の質問に対する学生の回答を予測するために、Leveled Attentive KNowledge TrAcing(LANA)を提案します。
新しい学生関連特徴抽出装置(SRFE)を使用して、学生固有の特性をそれぞれのインタラクティブシーケンスから蒸留します。
ピボットモジュールは、個々の学生のためのデコーダを再構築し、グループのためのレベル付き学習特化エンコーダにより、パーソナライズされたDKTを実現した。
論文 参考訳(メタデータ) (2021-04-21T02:57:42Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。