論文の概要: Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank
- arxiv url: http://arxiv.org/abs/2306.08847v1
- Date: Thu, 15 Jun 2023 04:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:44:23.581289
- Title: Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank
- Title(参考訳): データ拡張と過剰生成による包括的質問生成の改善
- Authors: Nischal Ashok Kumar, Nigel Fernandez, Zichao Wang, Andrew Lan
- Abstract要約: 自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
- 参考スコア(独自算出の注目度): 3.854023945160742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reading comprehension is a crucial skill in many aspects of education,
including language learning, cognitive development, and fostering early
literacy skills in children. Automated answer-aware reading comprehension
question generation has significant potential to scale up learner support in
educational activities. One key technical challenge in this setting is that
there can be multiple questions, sometimes very different from each other, with
the same answer; a trained question generation method may not necessarily know
which question human educators would prefer. To address this challenge, we
propose 1) a data augmentation method that enriches the training dataset with
diverse questions given the same context and answer and 2) an
overgenerate-and-rank method to select the best question from a pool of
candidates. We evaluate our method on the FairytaleQA dataset, showing a 5%
absolute improvement in ROUGE-L over the best existing method. We also
demonstrate the effectiveness of our method in generating harder, "implicit"
questions, where the answers are not contained in the context as text spans.
- Abstract(参考訳): 読み理解は、言語学習、認知発達、幼児の初期リテラシースキルの育成など、教育の多くの面で重要なスキルである。
自動解答認識読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり、時には互いに非常に異なる場合があり、同じ回答を持つ可能性があることである。
この課題に対処するために,我々は提案する
1)同じ文脈と回答を与えられた多様な質問による学習データセットを充実させるデータ拡張法
2) 候補のプールから最適な質問を選択するための過剰な生成とランクの方法。
提案手法をFairytaleQAデータセット上で評価したところ, ROUGE-Lは既存手法に比べて5%改善した。
また,本手法の有効性を実証し,テキストスパンとしての文脈に回答を含まない,より困難で「簡単」な質問を生成できることを示した。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-Centric Summarization [67.1483219601714]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。