論文の概要: EduQG: A Multi-format Multiple Choice Dataset for the Educational Domain
- arxiv url: http://arxiv.org/abs/2210.06104v1
- Date: Wed, 12 Oct 2022 11:28:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:01:06.044314
- Title: EduQG: A Multi-format Multiple Choice Dataset for the Educational Domain
- Title(参考訳): EduQG:教育領域のためのマルチフォーマット複数選択データセット
- Authors: Amir Hadifar, Semere Kiros Bitew, Johannes Deleu, Chris Develder,
Thomas Demeester
- Abstract要約: このデータセットには、複数の選択質問、回答(イントラクタを含む)、教育領域からのソースドキュメントの3,397のサンプルが含まれている。
各質問はノーマルとクローズの2つの形式で表現される。正しい回答は、文レベルのアノテーションでソース文書にリンクされる。
すべての質問は、クラウドワーカーではなく、教育と学習の標準を確実に維持するために、教育専門家によって作成されました。
- 参考スコア(独自算出の注目度): 20.801638768447948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a high-quality dataset that contains 3,397 samples comprising
(i) multiple choice questions, (ii) answers (including distractors), and (iii)
their source documents, from the educational domain. Each question is phrased
in two forms, normal and close. Correct answers are linked to source documents
with sentence-level annotations. Thus, our versatile dataset can be used for
both question and distractor generation, as well as to explore new challenges
such as question format conversion. Furthermore, 903 questions are accompanied
by their cognitive complexity level as per Bloom's taxonomy. All questions have
been generated by educational experts rather than crowd workers to ensure they
are maintaining educational and learning standards. Our analysis and
experiments suggest distinguishable differences between our dataset and
commonly used ones for question generation for educational purposes. We believe
this new dataset can serve as a valuable resource for research and evaluation
in the educational domain. The dataset and baselines will be released to
support further research in question generation.
- Abstract(参考訳): 3,397個のサンプルを含む高品質なデータセットを導入する。
(i)複数の選択質問。
(ii)回答(邪魔者を含む)、及び
(iii)教育分野の資料。
各質問は正常とクローズの2つの形式で表現される。
正しい回答は文レベルのアノテーションでソースドキュメントにリンクされる。
したがって、汎用的なデータセットは、質問生成と邪魔者生成の両方に使用でき、質問形式変換のような新しい課題を探求できます。
さらに、903の質問には、ブルームの分類法に従って認知的複雑性レベルが伴う。
すべての質問は、教育と学習の標準を維持するために、クラウドワーカーではなく、教育専門家によって作成された。
分析と実験は,教育目的の質問生成において,データセットと一般的なデータセットの区別可能な差異を示唆する。
この新しいデータセットは、教育領域における研究と評価のための貴重なリソースになると考えている。
データセットとベースラインがリリースされ、質問生成に関するさらなる研究をサポートする。
関連論文リスト
- Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Alloprof: a new French question-answer education dataset and its use in
an information retrieval case study [0.13750624267664155]
ケベックに本拠を置くヘルプサイトであるAlloprofから,フランスの新たな公開質問回答データセットを紹介した。
このデータセットは、29の349の質問と10人の368人の学生の様々な学年における説明を含んでいる。
関連する文書を予測するため、事前訓練されたBERTモデルを用いたアーキテクチャを微調整し、評価した。
論文 参考訳(メタデータ) (2023-02-10T20:23:27Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Controllable Open-ended Question Generation with A New Question Type
Ontology [6.017006996402699]
複数の文で通常答えられるオープンエンドな質問を生成するという,探索の少ない課題について検討する。
まず、広く使われている質問語よりも、質問のニュアンスの性質をよりよく区別する新しい質問型オントロジーを定義する。
次に,意味グラフ表現によって拡張された質問型認識型質問生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-01T00:02:03Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z) - Challenges in Information-Seeking QA: Unanswerable Questions and
Paragraph Retrieval [46.3246135936476]
情報検索クエリの応答がより難しい理由と,その原因を解析する。
制御実験の結果,2つのヘッドルーム – 段落選択と応答可能性予測 – が示唆された。
私たちは6つの言語で800の未解決例を手動で注釈付けします。
論文 参考訳(メタデータ) (2020-10-22T17:48:17Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。