論文の概要: Question Generation for Adaptive Education
- arxiv url: http://arxiv.org/abs/2106.04262v1
- Date: Tue, 8 Jun 2021 11:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 02:54:46.063195
- Title: Question Generation for Adaptive Education
- Title(参考訳): 適応教育のための質問生成
- Authors: Megha Srivastava and Noah Goodman
- Abstract要約: 深層知識追跡(LM-KT)のための事前学習言語モデルを微調整する方法を示す。
このモデルは、学生が正しい質問に答える確率を正確に予測し、訓練中に見えない質問に一般化する。
次に、LM-KTを用いて、モデルの訓練対象とデータを特定し、学生に条件付き質問を生成し、難易度を目標とする。
- 参考スコア(独自算出の注目度): 7.23389716633927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent and adaptive online education systems aim to make high-quality
education available for a diverse range of students. However, existing systems
usually depend on a pool of hand-made questions, limiting how fine-grained and
open-ended they can be in adapting to individual students. We explore targeted
question generation as a controllable sequence generation task. We first show
how to fine-tune pre-trained language models for deep knowledge tracing
(LM-KT). This model accurately predicts the probability of a student answering
a question correctly, and generalizes to questions not seen in training. We
then use LM-KT to specify the objective and data for training a model to
generate questions conditioned on the student and target difficulty. Our
results show we succeed at generating novel, well-calibrated language
translation questions for second language learners from a real online education
platform.
- Abstract(参考訳): インテリジェントで適応的なオンライン教育システムは、様々な学生に高品質な教育を提供することを目的としている。
しかし、既存のシステムは通常、手作りの質問のプールに依存しており、個々の学生にどのように適応できるかを細部まで制限している。
制御可能なシーケンス生成タスクとして,対象の質問生成を探索する。
まず, 深層知識追跡(LM-KT)のための事前学習言語モデルを微調整する方法を示す。
このモデルは、質問に正しく答える学生の確率を正確に予測し、訓練中に見ない質問に一般化する。
次に、LM-KTを用いて、モデルの訓練対象とデータを特定し、学生に条件付き質問を生成し、難易度を目標とする。
この結果から,オンライン学習プラットフォームから第2言語学習者を対象とした言語翻訳質問を新たに作成することに成功した。
関連論文リスト
- Toward In-Context Teaching: Adapting Examples to Students' Misconceptions [54.82965010592045]
本稿ではAdapTと呼ばれる一連のモデルと評価手法を紹介する。
AToMは、学生の過去の信念を共同で推論し、将来の信念の正しさを最適化する適応教育の新しい確率論的モデルである。
本研究は,適応型学習課題の難しさと,それを解決するための学習適応モデルの可能性を両立させるものである。
論文 参考訳(メタデータ) (2024-05-07T17:05:27Z) - Integrating A.I. in Higher Education: Protocol for a Pilot Study with 'SAMCares: An Adaptive Learning Hub' [0.6990493129893112]
本研究は,「SAMCares」と呼ぶ革新的な研究仲間を紹介することを目的としている。
このシステムは、Large Language Model(LLM)とRetriever-Augmented Generation(RAG)を利用して、リアルタイム、コンテキスト認識、適応的な教育サポートを提供する。
論文 参考訳(メタデータ) (2024-05-01T05:39:07Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Preference-grounded Token-level Guidance for Language Model Fine-tuning [105.88789610320426]
好みのある言語モデルを調整することは、自然言語生成において重要な問題である。
LMトレーニングでは、教師付きデータの量に基づいて、学習指導を利用する2つの「ミニマリスト*学習目標」を示す。
実験において,本手法は2つの異なるLMタスクに対して競合的に動作する。
論文 参考訳(メタデータ) (2023-06-01T07:00:07Z) - Scalable Educational Question Generation with Pre-trained Language
Models [17.701780209575777]
我々は,大規模言語モデルに適応して構築された新しい教育用質問生成モデルであるtextitEduQG を開発した。
実験の結果,TextitEduQGは,科学的なテキストと科学的な質問データに基づいて,事前学習された言語モデルをさらに微調整することで,優れた教育的質問を作成できることがわかった。
論文 参考訳(メタデータ) (2023-05-13T09:08:27Z) - Pre-Training With Scientific Text Improves Educational Question
Generation [17.701780209575777]
EduQGは,大規模言語モデルに適応して構築された,新しい教育用質問生成モデルである。
最初の実験では、EduQGは科学テキストを事前学習することで優れた教育的質問を作成できることを示した。
論文 参考訳(メタデータ) (2022-12-07T17:17:58Z) - Automatic Short Math Answer Grading via In-context Meta-learning [2.0263791972068628]
本研究では,数学質問に対する児童生徒の回答に対する自動短解格付けの問題について検討する。
我々は、数学的な内容に適応した人気のある言語モデルBERTの変種である MathBERT をベースモデルとして使用しています。
第二に、言語モデルへの入力としてスコアリングサンプルを提供する、コンテキスト内学習アプローチを用いる。
論文 参考訳(メタデータ) (2022-05-30T16:26:02Z) - Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-Centric Summarization [67.1483219601714]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Educational Question Mining At Scale: Prediction, Analysis and
Personalization [35.42197158180065]
大規模に教育的な問題から洞察を抽出する枠組みを提案する。
我々は最先端のベイズ深層学習法、特に部分変分オートエンコーダ(p-VAE)を利用する。
提案したフレームワークを,数万の質問と数千万の回答をオンライン教育プラットフォームから収集した実世界のデータセットに適用する。
論文 参考訳(メタデータ) (2020-03-12T19:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。