論文の概要: I Do Not Understand What I Cannot Define: Automatic Question Generation
With Pedagogically-Driven Content Selection
- arxiv url: http://arxiv.org/abs/2110.04123v1
- Date: Fri, 8 Oct 2021 13:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:10:33.589812
- Title: I Do Not Understand What I Cannot Define: Automatic Question Generation
With Pedagogically-Driven Content Selection
- Title(参考訳): 私が定義できないことは理解できない:教育駆動コンテンツ選択による自動質問生成
- Authors: Tim Steuer, Anna Filighera, Tobias Meuser and Christoph Rensing
- Abstract要約: 学習者が何を読んでいるかという質問は、テキスト理解を育むための確立した方法である。
多くの教科書では、執筆に時間がかかり高価であるため、自己評価の疑問が欠落している。
本稿では,任意の教科書内容の質問文や回答を見つけるための,教育学的に意味のあるコンテンツ選択機構を提案する。
- 参考スコア(独自算出の注目度): 0.08602553195689512
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most learners fail to develop deep text comprehension when reading textbooks
passively. Posing questions about what learners have read is a well-established
way of fostering their text comprehension. However, many textbooks lack
self-assessment questions because authoring them is timeconsuming and
expensive. Automatic question generators may alleviate this scarcity by
generating sound pedagogical questions. However, generating questions
automatically poses linguistic and pedagogical challenges. What should we ask?
And, how do we phrase the question automatically? We address those challenges
with an automatic question generator grounded in learning theory. The paper
introduces a novel pedagogically meaningful content selection mechanism to find
question-worthy sentences and answers in arbitrary textbook contents. We
conducted an empirical evaluation study with educational experts, annotating
150 generated questions in six different domains. Results indicate a high
linguistic quality of the generated questions. Furthermore, the evaluation
results imply that the majority of the generated questions inquire central
information related to the given text and may foster text comprehension in
specific learning scenarios.
- Abstract(参考訳): ほとんどの学習者は、受動的に教科書を読むときに深いテキスト理解を発達させることができない。
学習者が何を読んだかに関する質問は、テキスト理解を育むための確立された方法です。
しかし,テキスト作成には時間と費用がかかるため,自己評価質問を欠く教科書が多い。
自動質問生成装置はこの不足を緩和し、教育的な質問を生成する。
しかし、質問の生成は自動的に言語的および教育的課題をもたらす。
では、何を聞くべきか?
では、どうやって自動的に質問を言い換えるのでしょう?
学習理論に基づく自動質問生成装置を用いて,これらの課題に対処する。
本稿では,任意の教科書内容の質問文や回答を見つけるための,教育学的に意味のあるコンテンツ選択機構を提案する。
6つの異なる領域に150個の質問を付記し,教育専門家による実証的評価を行った。
結果は,生成した質問の言語的品質が高いことを示している。
また,評価の結果から,生成した質問のほとんどが,与えられたテキストに関する中心的情報を求め,特定の学習シナリオにおける理解を深めることが示唆された。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Auto FAQ Generation [0.0]
本稿では,FAQ文書を生成するシステムを提案する。
既存のテキスト要約、テキストランクアルゴリズムによる文章ランキング、質問生成ツールを用いて、質問と回答の初期セットを作成します。
論文 参考訳(メタデータ) (2024-05-13T03:30:27Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Automatic question generation based on sentence structure analysis using
machine learning approach [0.0]
本稿では,英語の非構造化テキストから事実質問を生成するための枠組みを紹介する。
文パターンに基づく従来の言語アプローチと、いくつかの機械学習手法を組み合わせる。
フレームワークには、生成された質問の品質を見積もる質問評価モジュールも含まれている。
論文 参考訳(メタデータ) (2022-05-25T14:35:29Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-Centric Summarization [67.1483219601714]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。