論文の概要: How Teachers Can Use Large Language Models and Bloom's Taxonomy to
Create Educational Quizzes
- arxiv url: http://arxiv.org/abs/2401.05914v1
- Date: Thu, 11 Jan 2024 13:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 14:41:55.136393
- Title: How Teachers Can Use Large Language Models and Bloom's Taxonomy to
Create Educational Quizzes
- Title(参考訳): 教師が大きな言語モデルとブルームの分類を使って教育用クイズを作る方法
- Authors: Sabina Elkins, Ekaterina Kochmar, Jackie C.K. Cheung, Iulian Serban
- Abstract要約: 本稿では,Bloomの分類学から得られた学習目標を問う,大規模言語モデルに基づくQGアプローチを適用する。
その結果、教師は自動生成された質問でクイズを書くことを好んでおり、手書き版に比べてクイズの品質が損なわれていないことがわかった。
- 参考スコア(独自算出の注目度): 5.487297537295827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question generation (QG) is a natural language processing task with an
abundance of potential benefits and use cases in the educational domain. In
order for this potential to be realized, QG systems must be designed and
validated with pedagogical needs in mind. However, little research has assessed
or designed QG approaches with the input from real teachers or students. This
paper applies a large language model-based QG approach where questions are
generated with learning goals derived from Bloom's taxonomy. The automatically
generated questions are used in multiple experiments designed to assess how
teachers use them in practice. The results demonstrate that teachers prefer to
write quizzes with automatically generated questions, and that such quizzes
have no loss in quality compared to handwritten versions. Further, several
metrics indicate that automatically generated questions can even improve the
quality of the quizzes created, showing the promise for large scale use of QG
in the classroom setting.
- Abstract(参考訳): 質問生成(QG)は、教育領域における潜在的利益とユースケースの豊富な自然言語処理タスクである。
この可能性を実現するためには、教育的ニーズを念頭においてQGシステムを設計し、検証する必要がある。
しかし、実際の教師や学生の入力によるQGアプローチの評価や設計は、ほとんど研究されていない。
本稿では,Bloomの分類学から得られた学習目標を問う,大規模言語モデルに基づくQGアプローチを適用する。
自動生成された質問は、教師が実際に使う方法を評価するために設計された複数の実験で使用される。
その結果、教師は自動生成された質問でクイズを書くことを好み、手書き版に比べてクイズの品質が損なわれることはないことがわかった。
さらに、いくつかの指標から、自動生成された質問は、生成したクイズの品質も向上し、教室でのQGの大規模利用が期待できることを示している。
関連論文リスト
- Research on the Application of Large Language Models in Automatic Question Generation: A Case Study of ChatGLM in the Context of High School Information Technology Curriculum [3.0753648264454547]
モデルは多様な質問を生成するためにガイドされ、ドメインの専門家によって包括的に評価される。
以上の結果から,ChatGLMは人為的な質問に対して,明快さと教師の利用意欲で優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T11:38:32Z) - Automatic question generation for propositional logical equivalences [6.221146613622175]
そこで我々は,各学生に対して適切な質問を生成できる手法を開発し,実装する。
従来の研究では、妥当性、ユーザ定義の困難さ、パーソナライズされた問題生成を含む、教育におけるAQGフレームワークについて研究されてきた。
我々の新しいAQGアプローチは、一年生のコンピュータサイエンス学生にとってコアコースである離散数学に論理的等価性問題をもたらす。
論文 参考訳(メタデータ) (2024-05-09T02:44:42Z) - Retrieval-augmented Generation to Improve Math Question-Answering:
Trade-offs Between Groundedness and Human Preference [0.0]
我々は、高品質なオープンソースの数学教科書からコンテンツを検索して利用し、実際の学生の質問に対する応答を生成するプロンプトを設計する。
マルチ条件サーベイを実施し,中学代数学と幾何学QAのためのRAGシステムの有効性を評価した。
我々は、RAGは応答品質を向上させることができるが、数学のQAシステムの設計者は、学生が好む応答と、特定の教育資源に密接に適合する応答とのトレードオフを検討する必要があると論じる。
論文 参考訳(メタデータ) (2023-10-04T22:09:28Z) - Covering Uncommon Ground: Gap-Focused Question Generation for Answer
Assessment [75.59538732476346]
このようなギャップに着目した質問(GFQ)を自動生成する問題に着目する。
タスクを定義し、優れたGFQの所望の側面を強調し、これらを満たすモデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T22:21:42Z) - A Practical Toolkit for Multilingual Question and Answer Generation [79.31199020420827]
我々は,マルチ言語QAGのオンラインサービスであるAutoQGと,モデル微調整,生成,評価のためのオールインワンPythonパッケージであるlmqgを紹介した。
また、事前訓練されたエンコーダ-デコーダ言語モデルのいくつかの変種を微調整した8言語でQAGモデルをリリースしています。
論文 参考訳(メタデータ) (2023-05-27T08:42:37Z) - How Useful are Educational Questions Generated by Large Language Models? [4.694536172504848]
高品質で多様な質問生成は、教師の負担を劇的に減らし、教育コンテンツの品質を向上させる。
この領域での最近の研究は世代によって進展しているが、実際の教師が生成した質問を教室の環境に十分有用であると判断するのに失敗している。
論文 参考訳(メタデータ) (2023-04-13T16:05:25Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - Quiz Design Task: Helping Teachers Create Quizzes with Automated
Question Generation [87.34509878569916]
本稿では,教師が読解クイズを自動生成するためのユースケースに焦点を当てた。
本研究は,クイズを構築中の教師が質問を受講し,それに応じるか,あるいは拒否するかのどちらかを理由として行う。
論文 参考訳(メタデータ) (2022-05-03T18:59:03Z) - Towards Process-Oriented, Modular, and Versatile Question Generation
that Meets Educational Needs [8.259416010336794]
そこで本研究では,NLPモデルを強化するために,インストラクターが質問をどのように作成し,タッチポイントを識別する方法について検討する。
我々は7つの大学において11人のインストラクターによる詳細な調査を行っている。
我々は,人間とNLPの協調的なQGシステムの構築が実世界の採用に不可欠であると主張している。
論文 参考訳(メタデータ) (2022-04-30T22:24:39Z) - Fantastic Questions and Where to Find Them: FairytaleQA -- An Authentic
Dataset for Narrative Comprehension [136.82507046638784]
幼稚園児の物語理解に焦点を当てたデータセットであるFairytaleQAを8年生に紹介する。
FairytaleQAは10,580の明示的で暗黙的な質問で構成されており、278の子供フレンドリーな物語から導かれる。
論文 参考訳(メタデータ) (2022-03-26T00:20:05Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。