論文の概要: Leaf: Multiple-Choice Question Generation
- arxiv url: http://arxiv.org/abs/2201.09012v1
- Date: Sat, 22 Jan 2022 10:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 09:22:32.103105
- Title: Leaf: Multiple-Choice Question Generation
- Title(参考訳): leaf: マルチチョイス質問生成
- Authors: Kristiyan Vachev, Momchil Hardalov, Georgi Karadzhov, Georgi Georgiev,
Ivan Koychev, Preslav Nakov
- Abstract要約: 本稿では,事実テキストから複数選択質問を生成するシステムであるLeafを紹介する。
教室に非常に適していたことに加えて、リーフは工業的にも使えるようになった。
- 参考スコア(独自算出の注目度): 19.910992586616477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Testing with quiz questions has proven to be an effective way to assess and
improve the educational process. However, manually creating quizzes is tedious
and time-consuming. To address this challenge, we present Leaf, a system for
generating multiple-choice questions from factual text. In addition to being
very well suited for the classroom, Leaf could also be used in an industrial
setting, e.g., to facilitate onboarding and knowledge sharing, or as a
component of chatbots, question answering systems, or Massive Open Online
Courses (MOOCs). The code and the demo are available on
https://github.com/KristiyanVachev/Leaf-Question-Generation.
- Abstract(参考訳): クイズ問題を用いたテストは、教育プロセスの評価と改善に有効な方法であることが証明されている。
しかし、手動でクイズを作るのは面倒で時間がかかる。
この課題に対処するために,実テキストから複数の質問を生成するシステムであるLeafを提案する。
教室に非常に適していることに加えて、Leafは工業的にも利用でき、例えば、オンボーディングや知識共有を容易にしたり、チャットボット、質問応答システム、MOOC(Massive Open Online Courses)などのコンポーネントとして利用することができる。
コードとデモはhttps://github.com/KristiyanVachev/Leaf-Question-Generationで公開されている。
関連論文リスト
- How Teachers Can Use Large Language Models and Bloom's Taxonomy to
Create Educational Quizzes [5.487297537295827]
本稿では,Bloomの分類学から得られた学習目標を問う,大規模言語モデルに基づくQGアプローチを適用する。
その結果、教師は自動生成された質問でクイズを書くことを好んでおり、手書き版に比べてクイズの品質が損なわれていないことがわかった。
論文 参考訳(メタデータ) (2024-01-11T13:47:13Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Mask and Cloze: Automatic Open Cloze Question Generation using a Masked
Language Model [0.0]
その利点にもかかわらず、オープン・クローゼ・テストは教育面で散発的に導入されているだけである。
我々はCLOZERを開発した。
人為的な質問を比較実験した結果、CLOZERは普通の英語教師よりもOCQを生成できることがわかった。
論文 参考訳(メタデータ) (2022-05-15T07:03:09Z) - Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-Centric Summarization [67.1483219601714]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Continuous Examination by Automatic Quiz Assessment Using Spiral Codes
and Image Processing [69.35569554213679]
紙のキズは安価で、教室のキャンパス教育の範囲内にある。
クイズの修正は かなりの障害だ
本稿では,新しい画像処理技術によって問題を緩和することを提案する。
論文 参考訳(メタデータ) (2022-01-26T22:58:15Z) - MixQG: Neural Question Generation with Mixed Answer Types [54.23205265351248]
このギャップを埋めるために、ニューラル質問生成器MixQGを提案する。
yes/no, multiple-choice, extractive, abstractive answerなど,9つの質問応答データセットと多様な回答タイプを組み合わせる。
私たちのモデルは、目に見えない領域と見えない領域の両方で、既存の作業より優れています。
論文 参考訳(メタデータ) (2021-10-15T16:03:40Z) - Generating Answer Candidates for Quizzes and Answer-Aware Question
Generators [16.44011627249311]
そこで本研究では,テキストの文通しに対して,所定の数の回答候補を生成できるモデルを提案する。
実験の結果,提案する回答候補生成モデルは,いくつかのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-08-29T19:33:51Z) - Dive into Deep Learning [119.30375933463156]
この本はJupyterのノートブックでドラフトされており、説明図、数学、インタラクティブな例を自己完結型コードとシームレスに統合している。
私たちのゴールは、(i)誰でも自由に利用できるリソースを提供すること、(ii)応用機械学習科学者になるための出発点を提供するのに十分な技術的な深さを提供すること、(iii)実行可能なコードを含み、実際にどのように問題を解決するかを読者に示すこと、(iv)私たちとコミュニティの両方による迅速なアップデートを可能にすることです。
論文 参考訳(メタデータ) (2021-06-21T18:19:46Z) - Real-Time Cognitive Evaluation of Online Learners through Automatically
Generated Questions [0.0]
本稿では,ビデオ講義から質問を自動的に生成する手法を提案する。
生成された質問は、学習者の低レベルの認知能力を評価することを目的としている。
論文 参考訳(メタデータ) (2021-06-06T05:45:56Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Procedural Generation of STEM Quizzes [0.0]
手続き型質問生成は、STEMクイズのための多様で形式的で最新の適応型質問バンクを作成する作業を大幅に促進する、と我々は主張する。
我々は,スクリプトベースの質問生成のための概念実証Python APIを提示し,評価する。
私たちのシステムの副次的な利点は、質問銀行がPythonコードに実際に埋め込まれており、コラボレーション、バージョン管理、メンテナンスタスクが非常に簡単であることです。
論文 参考訳(メタデータ) (2020-09-08T17:15:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。