論文の概要: Adaptive and Personalized Exercise Generation for Online Language
Learning
- arxiv url: http://arxiv.org/abs/2306.02457v1
- Date: Sun, 4 Jun 2023 20:18:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:49:28.278261
- Title: Adaptive and Personalized Exercise Generation for Online Language
Learning
- Title(参考訳): オンライン言語学習のための適応的・パーソナライズされたエクササイズ生成
- Authors: Peng Cui, Mrinmaya Sachan
- Abstract要約: オンライン言語学習のための適応的でパーソナライズされたエクササイズ生成の新しい課題について研究する。
学習履歴から各生徒の進化した知識状態を推定する知識追跡モデルを組み合わせる。
我々はDuolingoの実際の学習者インタラクションデータに基づいてモデルをトレーニングし、評価する。
- 参考スコア(独自算出の注目度): 39.28263461783446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adaptive learning aims to provide customized educational activities (e.g.,
exercises) to address individual learning needs. However, manual construction
and delivery of such activities is a laborious process. Thus, in this paper, we
study a novel task of adaptive and personalized exercise generation for online
language learning. To this end, we combine a knowledge tracing model that
estimates each student's evolving knowledge states from their learning history
and a controlled text generation model that generates exercise sentences based
on the student's current estimated knowledge state and instructor requirements
of desired properties (e.g., domain knowledge and difficulty). We train and
evaluate our model on real-world learner interaction data from Duolingo and
demonstrate that LMs guided by student states can generate superior exercises.
Then, we discuss the potential use of our model in educational applications
using various simulations. These simulations show that our model can adapt to
students' individual abilities and can facilitate their learning efficiency by
personalizing learning sequences.
- Abstract(参考訳): 適応学習は、個別の学習ニーズに対応するためにカスタマイズされた教育活動(例えば演習)を提供することを目的としている。
しかし、このような活動のマニュアル構築と提供は、面倒なプロセスである。
そこで本稿では,オンライン言語学習のための適応的でパーソナライズされたエクササイズ生成タスクについて検討する。
この目的のために,学習履歴から各学生の進化する知識状態を推定する知識追跡モデルと,現在推定されている知識状態と所望の特性(ドメイン知識と難易度)のインストラクター要件に基づいて,運動文を生成する制御されたテキスト生成モデルを組み合わせる。
我々は,duolingoによる実世界の学習者インタラクションデータに基づくモデルを訓練し,評価し,学生国家が指導するlmsが優れたエクササイズを生成できることを実証する。
次に,様々なシミュレーションを用いた教育応用におけるモデル活用の可能性について考察する。
これらのシミュレーションにより,本モデルは学習者の個性に適応でき,学習順序をパーソナライズすることで学習効率を向上できることが示された。
関連論文リスト
- Babysit A Language Model From Scratch: Interactive Language Learning by Trials and Demonstrations [15.394018604836774]
本稿では, 学生の試行, 教師のデモンストレーション, 言語能力に配慮した報酬の3つの要素を組み込んだTnD学習フレームワークを提案する。
実験の結果,TnD手法は等数あるいは少人数の学生モデルの単語獲得を促進させることがわかった。
この結果から,対話型言語学習は,教師による実演や学生の試行を通じて,言語モデルにおける効率的な単語学習を促進することが示唆された。
論文 参考訳(メタデータ) (2024-05-22T16:57:02Z) - Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Towards Scalable Adaptive Learning with Graph Neural Networks and
Reinforcement Learning [0.0]
学習経路のパーソナライズに関する問題に対して,フレキシブルでスケーラブルなアプローチを導入する。
我々のモデルはグラフニューラルネットワークに基づく逐次レコメンデーションシステムである。
以上の結果から,小規模データ体制における適切なレコメンデーションを学習できることが示唆された。
論文 参考訳(メタデータ) (2023-05-10T18:16:04Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Curriculum learning for language modeling [2.2475845406292714]
自然言語処理コミュニティにとって、言語モデルはトランスフォーメーションであることが証明されている。
これらのモデルは高価でエネルギー集約的で、訓練が難しいことが証明されている。
カリキュラム学習は、代わりに構造化されたトレーニング体制を利用する方法である。
論文 参考訳(メタデータ) (2021-08-04T16:53:43Z) - Self-Paced Learning for Neural Machine Translation [55.41314278859938]
ニューラルネットワーク翻訳(NMT)訓練のためのセルフペースト学習を提案する。
提案モデルでは,強いベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-10-09T11:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。