論文の概要: KARL: Knowledge-Aware Retrieval and Representations aid Retention and
Learning in Students
- arxiv url: http://arxiv.org/abs/2402.12291v1
- Date: Mon, 19 Feb 2024 17:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:21:40.271083
- Title: KARL: Knowledge-Aware Retrieval and Representations aid Retention and
Learning in Students
- Title(参考訳): KARL:学習者の保持と学習を支援する知識認識検索と表現
- Authors: Matthew Shu, Nishant Balepur, Shi Feng, Jordan Boyd-Graber
- Abstract要約: 既存の学生モデルは、学生の過去の反応のようなフラッシュカードレベルの機能しか使用せず、フラッシュカードのセマンティックな結びつきを無視している。
我々は,DKTにインスパイアされた学生モデルであるKARLを設計する。
KARLは、27人の学習者と32人の6日間の学習軌跡に基づいて、中等教育学習を強化する能力を示す。
- 参考スコア(独自算出の注目度): 11.328450664092355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flashcard schedulers are tools that rely on 1) student models to predict the
flashcards a student knows; and 2) teaching policies to schedule cards based on
these predictions. Existing student models, however, only use flashcard-level
features, like the student's past responses, ignoring the semantic ties of
flashcards. Deep Knowledge Tracing (DKT) models can capture semantic relations
with language models, but are inefficient, lack content-rich datasets for
evaluation, and require robust teaching policies. To address these issues, we
design KARL, a DKT-inspired student model that uses retrieval and BERT
embeddings for efficient and accurate student recall predictions. To test KARL,
we collect a new dataset of diverse study history on trivia questions. KARL
bests existing student models in AUC and calibration error. Finally, we propose
a novel teaching policy that exploits the predictive power of DKT models to
deploy KARL online. Based on 27 learners and 32 6-day study trajectories, KARL
shows the ability to enhance medium-term educational learning, proving its
efficacy for scheduling.
- Abstract(参考訳): Flashcardスケジューラは依存するツール
1)生徒が知っているフラッシュカードを予測するための学生モデル
2)これらの予測に基づくスケジュールカードの指導方針。
しかし、既存の学生モデルは、学生の過去の反応のようなフラッシュカードレベルの機能しか使用せず、フラッシュカードのセマンティックな結びつきを無視している。
ディープ・ナレッジ・トレーシング(DKT)モデルは言語モデルとのセマンティックな関係を捉えることができるが、非効率であり、評価のためのコンテンツ豊富なデータセットがなく、堅牢な教育方針を必要とする。
これらの問題に対処するために,DKTにインスパイアされた学生モデルであるKARLを設計する。
karlをテストするために、triviaの質問に関するさまざまな研究履歴の新しいデータセットを収集します。
KARLは、AUCと校正エラーで既存の学生モデルに最適である。
最後に、DKTモデルの予測力を生かしてKARLをオンラインで展開する新しい教育方針を提案する。
KARLは、27人の学習者と32人の6日間の学習軌跡に基づいて、中期的な教育的学習を強化する能力を示し、スケジューリングの有効性を証明した。
関連論文リスト
- Talking Models: Distill Pre-trained Knowledge to Downstream Models via
Interactive Communication [25.653517213641575]
我々は、下流の課題の学生が事前学習された基礎モデルから効果的に学習するのに役立つ対話型コミュニケーションプロセスを開発する。
私たちのデザインは、学生のニーズを満たす方法で知識を説明することができる教師から、人間が学ぶ方法にインスピレーションを受けています。
論文 参考訳(メタデータ) (2023-10-04T22:22:21Z) - Cognition-Mode Aware Variational Representation Learning Framework for
Knowledge Tracing [3.3036318543432417]
知識追跡タスクは、パーソナライズされた学習において重要な役割を果たす。
KTタスクはデータの分散に悩まされており、実践記録がほとんどない学生の堅牢な表現を学習することは困難である。
既存のKT手法に直接適用可能なCMVF(Cognition-Mode Aware Variational Representation Learning Framework)を提案する。
論文 参考訳(メタデータ) (2023-09-03T13:51:06Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations [21.74631969428855]
解釈可能な知識追跡(英: Interpretable Knowledge Tracing, IKT)は、3つの有意義な潜在機能に依存する単純なモデルである。
IKTの将来の学生成績予測は、Tree-Augmented Naive Bayes (TAN) を用いて行われる。
IKTは、現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-12-15T19:05:48Z) - Oracle Teacher: Leveraging Target Information for Better Knowledge
Distillation of CTC Models [10.941519846908697]
我々は、コネクショニスト時間分類(CTC)に基づくシーケンスモデル、すなわち、Oracle Teacherのための新しいタイプの教師モデルを導入する。
Oracle Teacherは、ターゲット情報を参照することによって、より正確なCTCアライメントを学ぶため、より最適なガイダンスを提供することができる。
CTCアルゴリズムの多対一マッピング特性に基づいて、自明な解を効果的に防止できるトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-11-05T14:14:05Z) - Undistillable: Making A Nasty Teacher That CANNOT teach students [84.6111281091602]
本論文では,ナスティ・ティーチング(Nasty Teacher)という,通常の教師とほぼ同じパフォーマンスを得られる特別に訓練されたティーチング・ネットワークについて紹介し,研究する。
本稿では, 自負知識蒸留法という, シンプルで効果的な教師構築アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-16T08:41:30Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Privileged Knowledge Distillation for Online Action Detection [114.5213840651675]
リアルタイム予測タスクに対処するフレーム単位のラベル付けタスクとして,ビデオ中のオンラインアクション検出(OAD)を提案する。
本稿では,トレーニング段階においてのみ観測可能な未来のフレームを特権情報の一種とみなすオンライン行動検出のための,新たな学習支援型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T08:52:15Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。