論文の概要: Scalable Educational Question Generation with Pre-trained Language
Models
- arxiv url: http://arxiv.org/abs/2305.07871v1
- Date: Sat, 13 May 2023 09:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 19:08:21.911232
- Title: Scalable Educational Question Generation with Pre-trained Language
Models
- Title(参考訳): 事前学習型言語モデルを用いたスケーラブルな教育用質問生成
- Authors: Sahan Bulathwela, Hamze Muse and Emine Yilmaz
- Abstract要約: 我々は,大規模言語モデルに適応して構築された新しい教育用質問生成モデルであるtextitEduQG を開発した。
実験の結果,TextitEduQGは,科学的なテキストと科学的な質問データに基づいて,事前学習された言語モデルをさらに微調整することで,優れた教育的質問を作成できることがわかった。
- 参考スコア(独自算出の注目度): 17.701780209575777
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The automatic generation of educational questions will play a key role in
scaling online education, enabling self-assessment at scale when a global
population is manoeuvring their personalised learning journeys. We develop
\textit{EduQG}, a novel educational question generation model built by adapting
a large language model. Our extensive experiments demonstrate that
\textit{EduQG} can produce superior educational questions by further
pre-training and fine-tuning a pre-trained language model on the scientific
text and science question data.
- Abstract(参考訳): 教育的質問の自動生成は、オンライン教育のスケールにおいて重要な役割を担い、グローバルな人口が個人化された学習旅行を運営しているときに、大規模に自己評価を可能にする。
大規模言語モデルを適用した新しい教育的質問生成モデルである \textit{eduqg} を開発した。
学術文献および科学質問データに基づく事前学習型言語モデルの構築と微調整により,<textit{EduQG} が優れた教育的質問を作成できることを示す。
関連論文リスト
- Carpe Diem: On the Evaluation of World Knowledge in Lifelong Language Models [74.81091933317882]
進化するウィキペディアデータベース上でのLMのトレーニングと評価を目的とした,時間的に進化する質問応答ベンチマークであるEvolvingQAを紹介する。
既存の継続的な学習ベースラインが、時代遅れの知識の更新と削除に悩まされていることを明らかにする。
本研究の目的は,実世界の情報の動的性質をモデル化することであり,言語モデルの進化適応性を忠実に評価することである。
論文 参考訳(メタデータ) (2023-11-14T12:12:02Z) - Automating question generation from educational text [1.9325905076281444]
質問ベースの活動(QBA)の使用は、教育において広く普及しており、学習と評価プロセスの不可欠な部分を形成している。
学校における形式的・要約的評価のための自動質問生成ツールの設計と評価を行う。
論文 参考訳(メタデータ) (2023-09-26T15:18:44Z) - On the application of Large Language Models for language teaching and
assessment technology [18.735612275207853]
我々は,AIによる言語教育とアセスメントシステムに大規模言語モデルを導入する可能性を検討する。
より大きな言語モデルは、テキスト生成における以前のモデルよりも改善されていることがわかった。
自動階調と文法的誤り訂正において、よく知られたベンチマークで進捗が確認されたタスクについては、初期の調査では、彼ら自身の大きな言語モデルが最先端の結果を改善していないことが示されている。
論文 参考訳(メタデータ) (2023-07-17T11:12:56Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Adaptive and Personalized Exercise Generation for Online Language
Learning [39.28263461783446]
オンライン言語学習のための適応的でパーソナライズされたエクササイズ生成の新しい課題について研究する。
学習履歴から各生徒の進化した知識状態を推定する知識追跡モデルを組み合わせる。
我々はDuolingoの実際の学習者インタラクションデータに基づいてモデルをトレーニングし、評価する。
論文 参考訳(メタデータ) (2023-06-04T20:18:40Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Pre-Training With Scientific Text Improves Educational Question
Generation [17.701780209575777]
EduQGは,大規模言語モデルに適応して構築された,新しい教育用質問生成モデルである。
最初の実験では、EduQGは科学テキストを事前学習することで優れた教育的質問を作成できることを示した。
論文 参考訳(メタデータ) (2022-12-07T17:17:58Z) - Educational Question Generation of Children Storybooks via Question Type
Distribution Learning and Event-Centric Summarization [59.18781827897894]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Recent Advances in Natural Language Processing via Large Pre-Trained
Language Models: A Survey [67.82942975834924]
BERTのような大規模で事前訓練された言語モデルは、自然言語処理(NLP)の分野を大きく変えた。
本稿では,これらの大規模言語モデルを用いたNLPタスクの事前学習,微調整,プロンプト,テキスト生成といった手法を用いた最近の研究について紹介する。
論文 参考訳(メタデータ) (2021-11-01T20:08:05Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Question Generation for Adaptive Education [7.23389716633927]
深層知識追跡(LM-KT)のための事前学習言語モデルを微調整する方法を示す。
このモデルは、学生が正しい質問に答える確率を正確に予測し、訓練中に見えない質問に一般化する。
次に、LM-KTを用いて、モデルの訓練対象とデータを特定し、学生に条件付き質問を生成し、難易度を目標とする。
論文 参考訳(メタデータ) (2021-06-08T11:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。