論文の概要: An Add-On for Empowering Google Forms to be an Automatic Question
Generator in Online Assessments
- arxiv url: http://arxiv.org/abs/2110.15220v1
- Date: Tue, 21 Sep 2021 07:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 03:14:31.806928
- Title: An Add-On for Empowering Google Forms to be an Automatic Question
Generator in Online Assessments
- Title(参考訳): オンラインアセスメントにおけるGoogleフォームを自動質問生成に活用するためのアドオン
- Authors: Pornpat Sirithumgul, Pimpaka Prasertsilp and Lorne Olfman
- Abstract要約: この研究は、Google Formsをマルチチョイス質問(MCQ)を生成する自動マシンにするためのアドオンを提案する。
本稿では,主に問合せ用ソフトウェアとデータストレージを組み合わせたアドオン設計について述べる。
実験の結果,MCQは,人的専門家が生み出す知識と,生徒の知識のレベルを同等に評価できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This research suggests an add-on to empower Google Forms to be an automatic
machine for generating multiple-choice questions (MCQs) used in online
assessments. In this paper, we elaborate an add-on design mainly comprising
question-formulating software and data storage. The algorithm as an
intellectual mechanism of this software can produce MCQs at an analytical
level. In an experiment, we found the MCQs could assess levels of students'
knowledge comparably with those generated by human experts. This add-on can be
applied generally to formulate MCQs for any rational concepts. With no effort
from an instructor at runtime, the add-on can transform a few data instances
describing rational concepts to be variety sets of MCQs.
- Abstract(参考訳): この研究は、Google Formsをオンラインアセスメントで使用されるマルチチョイス質問(MCQ)を生成する自動マシンにするためのアドオンを提案する。
本稿では,質問生成ソフトウェアとデータストレージを主成分とするアドオン設計について述べる。
このソフトウェアの知的メカニズムとしてのアルゴリズムは、解析レベルでMCQを生成することができる。
実験の結果,MCQは,人的専門家が生み出す知識と,生徒の知識のレベルを同等に評価できることがわかった。
このアドオンは一般に任意の合理的な概念に対して MCQ を定式化するために適用することができる。
実行時のインストラクターの努力なしに、アドオンは合理的概念を記述するいくつかのデータインスタンスをMCQのさまざまなセットに変換することができる。
関連論文リスト
- Automatic question generation for propositional logical equivalences [6.221146613622175]
そこで我々は,各学生に対して適切な質問を生成できる手法を開発し,実装する。
従来の研究では、妥当性、ユーザ定義の困難さ、パーソナライズされた問題生成を含む、教育におけるAQGフレームワークについて研究されてきた。
我々の新しいAQGアプローチは、一年生のコンピュータサイエンス学生にとってコアコースである離散数学に論理的等価性問題をもたらす。
論文 参考訳(メタデータ) (2024-05-09T02:44:42Z) - Improving Automated Distractor Generation for Math Multiple-choice Questions with Overgenerate-and-rank [44.04217284677347]
本稿では,過剰生成・ランク化により生成したトラクタの品質を向上する新しい手法を提案する。
我々のランキングモデルでは、人間が作成したものよりも、人間の権威のあるものの方が好まれるが、人間の権威のあるトラクタとのアライメントが向上する。
論文 参考訳(メタデータ) (2024-04-19T00:25:44Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Learning to Reuse Distractors to support Multiple Choice Question
Generation in Education [19.408786425460498]
本稿では,教師が複数選択質問(MCQ)の作成を支援するために,手作業による回答と注意散らしの集合をいかに活用するかを検討する。
データ駆動モデルをいくつか構築し,静的な特徴ベースモデルと比較した。
自動評価と人的評価は、コンテキスト認識モデルが静的な特徴ベースのアプローチを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-25T12:48:56Z) - Multiple-Choice Question Generation: Towards an Automated Assessment
Framework [0.0]
トランスフォーマーをベースとした事前学習型言語モデルでは,コンテキスト段落から適切な質問を生成する能力が実証されている。
我々は,質問文と可能な回答の両方を文脈段落から生成しなければならない完全自動複数選択質問生成システム(MCQG)に焦点を当てる。
論文 参考訳(メタデータ) (2022-09-23T19:51:46Z) - Quiz Design Task: Helping Teachers Create Quizzes with Automated
Question Generation [87.34509878569916]
本稿では,教師が読解クイズを自動生成するためのユースケースに焦点を当てた。
本研究は,クイズを構築中の教師が質問を受講し,それに応じるか,あるいは拒否するかのどちらかを理由として行う。
論文 参考訳(メタデータ) (2022-05-03T18:59:03Z) - Get It Scored Using AutoSAS -- An Automated System for Scoring Short
Answers [63.835172924290326]
SAS(Automatic Short Answer Scoring)への高速でスケーラブルで正確なアプローチを提示します。
SASのためのシステム、すなわちAutoSASの設計と開発を提案し、説明します。
AutoSASは最先端のパフォーマンスを示し、いくつかの質問のプロンプトで8%以上良い結果が得られる。
論文 参考訳(メタデータ) (2020-12-21T10:47:30Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Unsupervised Multi-hop Question Answering by Question Generation [108.61653629883753]
MQA-QGは、人間のようなマルチホップトレーニングデータを生成する、教師なしのフレームワークである。
生成された学習データのみを用いて、教師付き学習性能の61%と83%を達成できる有能なマルチホップQAを訓練することができる。
論文 参考訳(メタデータ) (2020-10-23T19:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。