論文の概要: KARL: Knowledge-Aware Retrieval and Representations aid Retention and Learning in Students
- arxiv url: http://arxiv.org/abs/2402.12291v2
- Date: Fri, 04 Oct 2024 15:08:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-07 18:20:20.962088
- Title: KARL: Knowledge-Aware Retrieval and Representations aid Retention and Learning in Students
- Title(参考訳): KARL:学習者の保持と学習を支援する知識認識検索と表現
- Authors: Matthew Shu, Nishant Balepur, Shi Feng, Jordan Boyd-Graber,
- Abstract要約: フラッシュカードスケジューラは,(1)学生が知っているフラッシュカードを予測するための学生モデル,(2)これらの予測を通じて次に示すカードを選択するための教育方針に依存する。
フラッシュカードコンテンツを利用した最初のスケジューラであるコンテンツ認識スケジューリングを提案する。
我々は,DKT(Deep Knowledge Trace),検索,BERTを用いて,学生のリコールを予測する,シンプルだが効果的なコンテンツ認識学習モデルであるKARLを構築した。
- 参考スコア(独自算出の注目度): 10.369973123919612
- License:
- Abstract: Flashcard schedulers rely on 1) student models to predict the flashcards a student knows; and 2) teaching policies to pick which cards to show next via these predictions. Prior student models, however, just use study data like the student's past responses, ignoring the text on cards. We propose content-aware scheduling, the first schedulers exploiting flashcard content. To give the first evidence that such schedulers enhance student learning, we build KARL, a simple but effective content-aware student model employing deep knowledge tracing (DKT), retrieval, and BERT to predict student recall. We train KARL by collecting a new dataset of 123,143 study logs on diverse trivia questions. KARL bests existing student models in AUC and calibration error. To ensure our improved predictions lead to better student learning, we create a novel delta-based teaching policy to deploy KARL online. Based on 32 study paths from 27 users, KARL improves learning efficiency over SOTA, showing KARL's strength and encouraging researchers to look beyond historical study data to fully capture student abilities.
- Abstract(参考訳): Flashcardスケジューラは
1)学生が知っているフラッシュカードを予測するためのモデル
2)これらの予測によって次に示すカードを選択するための教育方針。
しかし、以前の学生モデルは、カード上のテキストを無視して、学生の過去の反応のような学習データを使用するだけである。
フラッシュカードコンテンツを利用した最初のスケジューラであるコンテンツ認識スケジューリングを提案する。
このようなスケジューラが学生の学習を促進するという最初の証拠を与えるため、深層知識追跡(DKT)、検索、BERTを用いたシンプルで効果的なコンテンツ認識学習モデルであるKARLを構築し、学生のリコールを予測する。
我々はKARLを訓練し、多様なトリビアの質問に関する123,143の調査結果を収集した。
KARLは、AUCと校正エラーで既存の学生モデルに最適である。
改良された予測が生徒の学習を改善するために、KARLをオンラインで展開するためのデルタベースの新しい教育ポリシーを作成します。
27人のユーザによる32の学習パスに基づいて、KARLはSOTAよりも学習効率を向上し、KARLの強みを示し、歴史研究データを超えて学生の能力を完全に把握するよう研究者に促している。
関連論文リスト
- Talking Models: Distill Pre-trained Knowledge to Downstream Models via
Interactive Communication [25.653517213641575]
我々は、下流の課題の学生が事前学習された基礎モデルから効果的に学習するのに役立つ対話型コミュニケーションプロセスを開発する。
私たちのデザインは、学生のニーズを満たす方法で知識を説明することができる教師から、人間が学ぶ方法にインスピレーションを受けています。
論文 参考訳(メタデータ) (2023-10-04T22:22:21Z) - Cognition-Mode Aware Variational Representation Learning Framework for
Knowledge Tracing [3.3036318543432417]
知識追跡タスクは、パーソナライズされた学習において重要な役割を果たす。
KTタスクはデータの分散に悩まされており、実践記録がほとんどない学生の堅牢な表現を学習することは困難である。
既存のKT手法に直接適用可能なCMVF(Cognition-Mode Aware Variational Representation Learning Framework)を提案する。
論文 参考訳(メタデータ) (2023-09-03T13:51:06Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Interpretable Knowledge Tracing: Simple and Efficient Student Modeling
with Causal Relations [21.74631969428855]
解釈可能な知識追跡(英: Interpretable Knowledge Tracing, IKT)は、3つの有意義な潜在機能に依存する単純なモデルである。
IKTの将来の学生成績予測は、Tree-Augmented Naive Bayes (TAN) を用いて行われる。
IKTは、現実世界の教育システムにおいて、因果推論を用いた適応的でパーソナライズされた指示を提供する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-12-15T19:05:48Z) - Oracle Teacher: Leveraging Target Information for Better Knowledge
Distillation of CTC Models [10.941519846908697]
我々は、コネクショニスト時間分類(CTC)に基づくシーケンスモデル、すなわち、Oracle Teacherのための新しいタイプの教師モデルを導入する。
Oracle Teacherは、ターゲット情報を参照することによって、より正確なCTCアライメントを学ぶため、より最適なガイダンスを提供することができる。
CTCアルゴリズムの多対一マッピング特性に基づいて、自明な解を効果的に防止できるトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-11-05T14:14:05Z) - Undistillable: Making A Nasty Teacher That CANNOT teach students [84.6111281091602]
本論文では,ナスティ・ティーチング(Nasty Teacher)という,通常の教師とほぼ同じパフォーマンスを得られる特別に訓練されたティーチング・ネットワークについて紹介し,研究する。
本稿では, 自負知識蒸留法という, シンプルで効果的な教師構築アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-16T08:41:30Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Privileged Knowledge Distillation for Online Action Detection [114.5213840651675]
リアルタイム予測タスクに対処するフレーム単位のラベル付けタスクとして,ビデオ中のオンラインアクション検出(OAD)を提案する。
本稿では,トレーニング段階においてのみ観測可能な未来のフレームを特権情報の一種とみなすオンライン行動検出のための,新たな学習支援型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T08:52:15Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - qDKT: Question-centric Deep Knowledge Tracing [29.431121650577396]
DKTの変種であるqDKTを導入し、各学習者の成功確率を時間とともにモデル化する。
qDKTはグラフラプラシア正規化を各スキルの下で滑らかな予測に組み込む。
いくつかの実世界のデータセットの実験により、qDKTは学習結果の予測において最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-05-25T23:43:55Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。