論文の概要: KARL: Knowledge-Aware Retrieval and Representations aid Retention and
Learning in Students
- arxiv url: http://arxiv.org/abs/2402.12291v1
- Date: Mon, 19 Feb 2024 17:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:21:40.271083
- Title: KARL: Knowledge-Aware Retrieval and Representations aid Retention and
Learning in Students
- Title(参考訳): KARL:学習者の保持と学習を支援する知識認識検索と表現
- Authors: Matthew Shu, Nishant Balepur, Shi Feng, Jordan Boyd-Graber
- Abstract要約: 既存の学生モデルは、学生の過去の反応のようなフラッシュカードレベルの機能しか使用せず、フラッシュカードのセマンティックな結びつきを無視している。
我々は,DKTにインスパイアされた学生モデルであるKARLを設計する。
KARLは、27人の学習者と32人の6日間の学習軌跡に基づいて、中等教育学習を強化する能力を示す。
- 参考スコア(独自算出の注目度): 11.328450664092355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flashcard schedulers are tools that rely on 1) student models to predict the
flashcards a student knows; and 2) teaching policies to schedule cards based on
these predictions. Existing student models, however, only use flashcard-level
features, like the student's past responses, ignoring the semantic ties of
flashcards. Deep Knowledge Tracing (DKT) models can capture semantic relations
with language models, but are inefficient, lack content-rich datasets for
evaluation, and require robust teaching policies. To address these issues, we
design KARL, a DKT-inspired student model that uses retrieval and BERT
embeddings for efficient and accurate student recall predictions. To test KARL,
we collect a new dataset of diverse study history on trivia questions. KARL
bests existing student models in AUC and calibration error. Finally, we propose
a novel teaching policy that exploits the predictive power of DKT models to
deploy KARL online. Based on 27 learners and 32 6-day study trajectories, KARL
shows the ability to enhance medium-term educational learning, proving its
efficacy for scheduling.
- Abstract(参考訳): Flashcardスケジューラは依存するツール
1)生徒が知っているフラッシュカードを予測するための学生モデル
2)これらの予測に基づくスケジュールカードの指導方針。
しかし、既存の学生モデルは、学生の過去の反応のようなフラッシュカードレベルの機能しか使用せず、フラッシュカードのセマンティックな結びつきを無視している。
ディープ・ナレッジ・トレーシング(DKT)モデルは言語モデルとのセマンティックな関係を捉えることができるが、非効率であり、評価のためのコンテンツ豊富なデータセットがなく、堅牢な教育方針を必要とする。
これらの問題に対処するために,DKTにインスパイアされた学生モデルであるKARLを設計する。
karlをテストするために、triviaの質問に関するさまざまな研究履歴の新しいデータセットを収集します。
KARLは、AUCと校正エラーで既存の学生モデルに最適である。
最後に、DKTモデルの予測力を生かしてKARLをオンラインで展開する新しい教育方針を提案する。
KARLは、27人の学習者と32人の6日間の学習軌跡に基づいて、中期的な教育的学習を強化する能力を示し、スケジューリングの有効性を証明した。
関連論文リスト
- Talking Models: Distill Pre-trained Knowledge to Downstream Models via
Interactive Communication [25.653517213641575]
我々は、下流の課題の学生が事前学習された基礎モデルから効果的に学習するのに役立つ対話型コミュニケーションプロセスを開発する。
私たちのデザインは、学生のニーズを満たす方法で知識を説明することができる教師から、人間が学ぶ方法にインスピレーションを受けています。
論文 参考訳(メタデータ) (2023-10-04T22:22:21Z) - Improving Knowledge Distillation with Teacher's Explanation [14.935696904019146]
本稿では,KED(Knowledge Explaining Distillation)フレームワークを紹介する。
KEDは、教師の予測だけでなく、教師の説明からも学べるようにしている。
様々なデータセットに対する実験により,KEDの学生はKDの学生と同じような複雑さを著しく上回る結果が得られた。
論文 参考訳(メタデータ) (2023-10-04T04:18:01Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Undistillable: Making A Nasty Teacher That CANNOT teach students [84.6111281091602]
本論文では,ナスティ・ティーチング(Nasty Teacher)という,通常の教師とほぼ同じパフォーマンスを得られる特別に訓練されたティーチング・ネットワークについて紹介し,研究する。
本稿では, 自負知識蒸留法という, シンプルで効果的な教師構築アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-16T08:41:30Z) - Learning by Teaching, with Application to Neural Architecture Search [10.426533624387305]
学習による学習(LBT)と呼ばれる新しいMLフレームワークを提案する。
lbtでは、教師モデルが生徒モデルにうまく学ぶように教えることで自己改善する。
バリデーションデータセットで生徒がどのように振る舞うかに基づいて、教師はモデルを再学習し、生徒が優れたバリデーション性能に達するまで再指導する。
論文 参考訳(メタデータ) (2021-03-11T23:50:38Z) - Knowledge Capture and Replay for Continual Learning [0.4980584790669266]
ネットワークをエンコードした知識を捕捉する視覚表現であるemフラッシュカードを紹介します。
継続的な学習シナリオでは、フラッシュカードは以前のすべてのタスクの知識を忘れることや統合することを防ぐのに役立ちます。
学習知識表現の獲得におけるフラッシュカードの有効性(元のデータセットの代替として)を実証し,様々な連続的な学習課題を実証的に検証した。
論文 参考訳(メタデータ) (2020-12-12T11:24:45Z) - Progressive Network Grafting for Few-Shot Knowledge Distillation [60.38608462158474]
本稿では, 数ショットデータに適した二段蒸留方式を提案する。
最初のステップでは、生徒のブロックを1つずつ教師に移植し、移植されたブロックのパラメータと他の教師ブロックのパラメータを学習します。
CIFAR10, CIFAR100, ILSVRC-2012で, わずか数サンプルで, 満足のいく結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-12-09T08:34:36Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Privileged Knowledge Distillation for Online Action Detection [114.5213840651675]
リアルタイム予測タスクに対処するフレーム単位のラベル付けタスクとして,ビデオ中のオンラインアクション検出(OAD)を提案する。
本稿では,トレーニング段階においてのみ観測可能な未来のフレームを特権情報の一種とみなすオンライン行動検出のための,新たな学習支援型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T08:52:15Z) - Role-Wise Data Augmentation for Knowledge Distillation [48.115719640111394]
知識蒸留(KD)は、ある機械学習モデルから学んだ知識を別の機械学習モデルに転送する一般的な方法である。
我々は、知識蒸留を促進するために、異なる役割を持つデータ増強剤を設計する。
特別に調整されたデータポイントが、教師の知識をより効果的に生徒に示せることを実証的に見出した。
論文 参考訳(メタデータ) (2020-04-19T14:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。