論文の概要: I Do Not Understand What I Cannot Define: Automatic Question Generation
With Pedagogically-Driven Content Selection
- arxiv url: http://arxiv.org/abs/2110.04123v1
- Date: Fri, 8 Oct 2021 13:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 15:10:33.589812
- Title: I Do Not Understand What I Cannot Define: Automatic Question Generation
With Pedagogically-Driven Content Selection
- Title(参考訳): 私が定義できないことは理解できない:教育駆動コンテンツ選択による自動質問生成
- Authors: Tim Steuer, Anna Filighera, Tobias Meuser and Christoph Rensing
- Abstract要約: 学習者が何を読んでいるかという質問は、テキスト理解を育むための確立した方法である。
多くの教科書では、執筆に時間がかかり高価であるため、自己評価の疑問が欠落している。
本稿では,任意の教科書内容の質問文や回答を見つけるための,教育学的に意味のあるコンテンツ選択機構を提案する。
- 参考スコア(独自算出の注目度): 0.08602553195689512
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most learners fail to develop deep text comprehension when reading textbooks
passively. Posing questions about what learners have read is a well-established
way of fostering their text comprehension. However, many textbooks lack
self-assessment questions because authoring them is timeconsuming and
expensive. Automatic question generators may alleviate this scarcity by
generating sound pedagogical questions. However, generating questions
automatically poses linguistic and pedagogical challenges. What should we ask?
And, how do we phrase the question automatically? We address those challenges
with an automatic question generator grounded in learning theory. The paper
introduces a novel pedagogically meaningful content selection mechanism to find
question-worthy sentences and answers in arbitrary textbook contents. We
conducted an empirical evaluation study with educational experts, annotating
150 generated questions in six different domains. Results indicate a high
linguistic quality of the generated questions. Furthermore, the evaluation
results imply that the majority of the generated questions inquire central
information related to the given text and may foster text comprehension in
specific learning scenarios.
- Abstract(参考訳): ほとんどの学習者は、受動的に教科書を読むときに深いテキスト理解を発達させることができない。
学習者が何を読んだかに関する質問は、テキスト理解を育むための確立された方法です。
しかし,テキスト作成には時間と費用がかかるため,自己評価質問を欠く教科書が多い。
自動質問生成装置はこの不足を緩和し、教育的な質問を生成する。
しかし、質問の生成は自動的に言語的および教育的課題をもたらす。
では、何を聞くべきか?
では、どうやって自動的に質問を言い換えるのでしょう?
学習理論に基づく自動質問生成装置を用いて,これらの課題に対処する。
本稿では,任意の教科書内容の質問文や回答を見つけるための,教育学的に意味のあるコンテンツ選択機構を提案する。
6つの異なる領域に150個の質問を付記し,教育専門家による実証的評価を行った。
結果は,生成した質問の言語的品質が高いことを示している。
また,評価の結果から,生成した質問のほとんどが,与えられたテキストに関する中心的情報を求め,特定の学習シナリオにおける理解を深めることが示唆された。
関連論文リスト
- Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Improving Reading Comprehension Question Generation with Data
Augmentation and Overgenerate-and-rank [3.854023945160742]
自動回答対応読解質問生成は、教育活動における学習者支援を拡大する大きな可能性を秘めている。
この設定における重要な技術的課題の1つは、複数の質問があり得るということです。
本研究では,(1)同じ文脈と回答を与えられた多様な質問でトレーニングデータセットを充実させるデータ拡張手法,(2)候補のプールから最適な質問を選択する過剰な生成とランクの手法を提案する。
論文 参考訳(メタデータ) (2023-06-15T04:23:25Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - SkillQG: Learning to Generate Question for Reading Comprehension
Assessment [54.48031346496593]
本稿では,機械読解モデルの評価と改善を目的とした,制御可能な理解型を用いた質問生成フレームワークを提案する。
まず、階層的なスキルベースのスキーマに基づいて理解型の質問をフレーム化し、その後、スキル条件付き質問生成器として$textttSkillQG$を定式化する。
経験的な結果から、$textttSkillQG$は、品質、妥当性、スキル制御性という点でベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-08T14:40:48Z) - Automatic question generation based on sentence structure analysis using
machine learning approach [0.0]
本稿では,英語の非構造化テキストから事実質問を生成するための枠組みを紹介する。
文パターンに基づく従来の言語アプローチと、いくつかの機械学習手法を組み合わせる。
フレームワークには、生成された質問の品質を見積もる質問評価モジュールも含まれている。
論文 参考訳(メタデータ) (2022-05-25T14:35:29Z) - Question Generation for Reading Comprehension Assessment by Modeling How
and What to Ask [3.470121495099]
本研究では,推論的質問が重要となる読解のための質問生成(QG)について検討する。
本稿では,従来のデータセットを利用した2段階モデル(HTA-WTA)を提案する。
HTA-WTAモデルでは,深い推論を問うことで,強いSCRSの検証を行う。
論文 参考訳(メタデータ) (2022-04-06T15:52:24Z) - Educational Question Generation of Children Storybooks via Question Type
Distribution Learning and Event-Centric Summarization [59.18781827897894]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Generating Answer Candidates for Quizzes and Answer-Aware Question
Generators [16.44011627249311]
そこで本研究では,テキストの文通しに対して,所定の数の回答候補を生成できるモデルを提案する。
実験の結果,提案する回答候補生成モデルは,いくつかのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-08-29T19:33:51Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。