論文の概要: Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask
- arxiv url: http://arxiv.org/abs/2204.02908v1
- Date: Wed, 6 Apr 2022 15:52:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 12:59:07.322073
- Title: Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask
- Title(参考訳): 問うべきことのモデル化による読み理解評価のための質問生成
- Authors: Bilal Ghanem, Lauren Lutz Coleman, Julia Rivard Dexter, Spencer
McIntosh von der Ohe, Alona Fyshe
- Abstract要約: 本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
- 参考スコア(独自算出の注目度): 3.470121495099
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Reading is integral to everyday life, and yet learning to read is a struggle
for many young learners. During lessons, teachers can use comprehension
questions to increase engagement, test reading skills, and improve retention.
Historically such questions were written by skilled teachers, but recently
language models have been used to generate comprehension questions. However,
many existing Question Generation (QG) systems focus on generating literal
questions from the text, and have no way to control the type of the generated
question. In this paper, we study QG for reading comprehension where
inferential questions are critical and extractive techniques cannot be used. We
propose a two-step model (HTA-WTA) that takes advantage of previous datasets,
and can generate questions for a specific targeted comprehension skill. We
propose a new reading comprehension dataset that contains questions annotated
with story-based reading comprehension skills (SBRCS), allowing for a more
complete reader assessment. Across several experiments, our results show that
HTA-WTA outperforms multiple strong baselines on this new dataset. We show that
the HTA-WTA model tests for strong SCRS by asking deep inferential questions.
- Abstract(参考訳): 読書は日常生活に不可欠なものであり、読書を学ぶことは多くの若い学習者にとって困難である。
授業中、教師は理解質問を使ってエンゲージメントを高め、読書のスキルをテストし、保持性を改善することができる。
歴史的には、このような質問は熟練した教師によって書かれたが、近年では言語モデルが理解の質問を生成するのに使われている。
しかし,既存の質問生成(QG)システムの多くは,テキストからリテラル質問を生成することに重点を置いており,生成した質問のタイプを制御する方法がない。
本稿では,推論質問が重要であり,抽出技術が使えない読み理解のためのQGについて検討する。
本稿では,従来のデータセットを活用する2段階モデル (HTA-WTA) を提案する。
本研究では,sbrc(story-based reading comprehension skills)を付記した質問を含む新しい読解データセットを提案する。
いくつかの実験で、HTA-WTAは、この新しいデータセット上で複数の強いベースラインを上回ります。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - ChatPRCS: A Personalized Support System for English Reading
Comprehension based on ChatGPT [3.847982502219679]
本稿では,ChatPRCSと呼ばれる読解支援システムを提案する。
ChatPRCSは、理解能力予測、質問生成、自動評価などの手法を採用している。
論文 参考訳(メタデータ) (2023-09-22T11:46:44Z) - Analyzing Multiple-Choice Reading and Listening Comprehension Tests [0.0]
本研究は,会話の書き起こしと聞き取りテストに基づいて,コンテキストパスを複数選択で読み取る必要があるかを検討する。
自動読解システムは、文脈パスへのアクセスを部分的にあるいは全く行わずに、ランダムよりもはるかに優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2023-07-03T14:55:02Z) - Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank [3.854023945160742]
自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T04:23:25Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Fantastic Questions and Where to Find Them: FairytaleQA -- An Authentic
Dataset for Narrative Comprehension [136.82507046638784]
幼稚園児の物語理解に焦点を当てたデータセットであるFairytaleQAを8年生に紹介する。
FairytaleQAは10,580の明示的で暗黙的な質問で構成されており、278の子供フレンドリーな物語から導かれる。
論文 参考訳(メタデータ) (2022-03-26T00:20:05Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。