論文の概要: How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading
- arxiv url: http://arxiv.org/abs/2407.14309v2
- Date: Mon, 29 Jul 2024 01:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 20:31:59.714401
- Title: How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading
- Title(参考訳): 読者をエンゲージする方法 : アクティブリーディングを促進するための指導的質問の生成
- Authors: Peng Cui, Vilém Zouhar, Xiaoyu Zhang, Mrinmaya Sachan,
- Abstract要約: 教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
- 参考スコア(独自算出の注目度): 60.19226384241482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using questions in written text is an effective strategy to enhance readability. However, what makes an active reading question good, what the linguistic role of these questions is, and what is their impact on human reading remains understudied. We introduce GuidingQ, a dataset of 10K in-text questions from textbooks and scientific articles. By analyzing the dataset, we present a comprehensive understanding of the use, distribution, and linguistic characteristics of these questions. Then, we explore various approaches to generate such questions using language models. Our results highlight the importance of capturing inter-question relationships and the challenge of question position identification in generating these questions. Finally, we conduct a human study to understand the implication of such questions on reading comprehension. We find that the generated questions are of high quality and are almost as effective as human-written questions in terms of improving readers' memorization and comprehension.
- Abstract(参考訳): テキストで質問を使うことは、読みやすさを高める効果的な戦略である。
しかし、アクティブ・リーディング・質問がよいもの、これらの質問の言語的役割がどのようなもので、人間の読書にどのような影響を及ぼすかは、いまだ検討されていない。
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
データセットを解析することにより,これらの質問の使用,分布,言語的特徴を包括的に理解する。
そこで本稿では,言語モデルを用いてこのような質問を生成するための様々なアプローチについて検討する。
本研究は,質問間の関係を捉えることの重要性と,これらの質問を生成する上での質問位置識別の課題を強調した。
最後に,このような質問が読解に与える影響を理解するために人間による研究を行う。
生成した質問は高品質であり、読者の記憶と理解を改善するという意味では、人間による質問と同程度に効果的であることがわかった。
関連論文リスト
- CaLMQA: Exploring culturally specific long-form question answering across 23 languages [58.18984409715615]
CaLMQAは、23の言語にまたがる1.5Kの文化的に特定の質問のコレクションであり、51の文化的に翻訳された質問は、英語から22の言語に翻訳されている。
コミュニティのWebフォーラムから自然に発生する質問を収集し、ネイティブスピーカーを雇い、FijianやKirndiといった未調査言語をカバーする質問を書いています。
私たちのデータセットには、文化的トピック(伝統、法律、ニュースなど)とネイティブスピーカーの言語使用を反映した、多種多様な複雑な質問が含まれています。
論文 参考訳(メタデータ) (2024-06-25T17:45:26Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank [3.854023945160742]
自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T04:23:25Z) - Are Large Language Models Fit For Guided Reading? [6.85316573653194]
本稿では,大規模言語モデルが教育指導読解に参加する能力について考察する。
入力テキストから意味のある質問を生成し、多様な質問を生成し、学生が再読むべきテキストの一部を推薦する能力を評価する。
論文 参考訳(メタデータ) (2023-05-18T02:03:55Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。