論文の概要: Pre-Training With Scientific Text Improves Educational Question
Generation
- arxiv url: http://arxiv.org/abs/2212.03869v1
- Date: Wed, 7 Dec 2022 17:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:22:14.934629
- Title: Pre-Training With Scientific Text Improves Educational Question
Generation
- Title(参考訳): 科学テキストによる事前学習による教育的質問生成の改善
- Authors: Hamze Muse, Sahan Bulathwela and Emine Yilmaz
- Abstract要約: EduQGは,大規模言語モデルに適応して構築された,新しい教育用質問生成モデルである。
最初の実験では、EduQGは科学テキストを事前学習することで優れた教育的質問を作成できることを示した。
- 参考スコア(独自算出の注目度): 17.701780209575777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the boom of digital educational materials and scalable e-learning
systems, the potential for realising AI-assisted personalised learning has
skyrocketed. In this landscape, the automatic generation of educational
questions will play a key role, enabling scalable self-assessment when a global
population is manoeuvring their personalised learning journeys. We develop
EduQG, a novel educational question generation model built by adapting a large
language model. Our initial experiments demonstrate that EduQG can produce
superior educational questions by pre-training on scientific text.
- Abstract(参考訳): デジタル教材やスケーラブルなeラーニングシステムの普及に伴い、ai支援によるパーソナライズド学習を実現する可能性が高まっている。
この状況では、教育的質問の自動生成が重要な役割を担い、グローバル人口が個人化された学習旅行を運用している場合に、スケーラブルな自己評価を可能にする。
EduQGは,大規模言語モデルに適応して構築された,新しい教育用質問生成モデルである。
最初の実験では、EduQGは科学テキストを事前学習することで優れた教育的質問を作成できることを示した。
関連論文リスト
- Navigating the Landscape of Hint Generation Research: From the Past to the Future [34.47999708205151]
本稿では,学習研究と認知科学のギャップを埋めることを目的として,ヒント生成に関する先行研究のレビューを行う。
本稿では,ヒント生成タスクの形式的定義を提案し,効果的なヒント生成システム構築のロードマップについて論じる。
論文 参考訳(メタデータ) (2024-04-06T20:42:46Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Carpe Diem: On the Evaluation of World Knowledge in Lifelong Language Models [74.81091933317882]
進化するウィキペディアデータベース上でのLMのトレーニングと評価を目的とした,時間的に進化する質問応答ベンチマークであるEvolvingQAを紹介する。
既存の継続的な学習ベースラインが、時代遅れの知識の更新と削除に悩まされていることを明らかにする。
本研究の目的は,実世界の情報の動的性質をモデル化することであり,言語モデルの進化適応性を忠実に評価することである。
論文 参考訳(メタデータ) (2023-11-14T12:12:02Z) - Automating question generation from educational text [1.9325905076281444]
質問ベースの活動(QBA)の使用は、教育において広く普及しており、学習と評価プロセスの不可欠な部分を形成している。
学校における形式的・要約的評価のための自動質問生成ツールの設計と評価を行う。
論文 参考訳(メタデータ) (2023-09-26T15:18:44Z) - Adaptive and Personalized Exercise Generation for Online Language
Learning [39.28263461783446]
オンライン言語学習のための適応的でパーソナライズされたエクササイズ生成の新しい課題について研究する。
学習履歴から各生徒の進化した知識状態を推定する知識追跡モデルを組み合わせる。
我々はDuolingoの実際の学習者インタラクションデータに基づいてモデルをトレーニングし、評価する。
論文 参考訳(メタデータ) (2023-06-04T20:18:40Z) - Scalable Educational Question Generation with Pre-trained Language
Models [17.701780209575777]
我々は,大規模言語モデルに適応して構築された新しい教育用質問生成モデルであるtextitEduQG を開発した。
実験の結果,TextitEduQGは,科学的なテキストと科学的な質問データに基づいて,事前学習された言語モデルをさらに微調整することで,優れた教育的質問を作成できることがわかった。
論文 参考訳(メタデータ) (2023-05-13T09:08:27Z) - Educational Question Generation of Children Storybooks via Question Type
Distribution Learning and Event-Centric Summarization [59.18781827897894]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Question Generation for Adaptive Education [7.23389716633927]
深層知識追跡(LM-KT)のための事前学習言語モデルを微調整する方法を示す。
このモデルは、学生が正しい質問に答える確率を正確に予測し、訓練中に見えない質問に一般化する。
次に、LM-KTを用いて、モデルの訓練対象とデータを特定し、学生に条件付き質問を生成し、難易度を目標とする。
論文 参考訳(メタデータ) (2021-06-08T11:46:59Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。