論文の概要: A Feasibility Study of Answer-Unaware Question Generation for Education
- arxiv url: http://arxiv.org/abs/2203.08685v1
- Date: Wed, 16 Mar 2022 15:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 17:49:16.080889
- Title: A Feasibility Study of Answer-Unaware Question Generation for Education
- Title(参考訳): 教育における回答を意識した質問生成の可能性に関する研究
- Authors: Liam Dugan, Eleni Miltsakaki, Shriyash Upadhyay, Etan Ginsberg, Hannah
Gonzalez, Dayheon Choi, Chuning Yuan, Chris Callison-Burch
- Abstract要約: このようなシステムにおけるエラーのかなりの部分は、無関係または解釈不能な質問から生じていることを示す。
これらのモデルが原文ではなく人文要約となると、生成した質問の受理性が著しく向上することがわかった。
- 参考スコア(独自算出の注目度): 14.434418277566383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We conduct a feasibility study into the applicability of answer-unaware
question generation models to textbook passages. We show that a significant
portion of errors in such systems arise from asking irrelevant or
uninterpretable questions and that such errors can be ameliorated by providing
summarized input. We find that giving these models human-written summaries
instead of the original text results in a significant increase in acceptability
of generated questions (33% $\rightarrow$ 83%) as determined by expert
annotators. We also find that, in the absence of human-written summaries,
automatic summarization can serve as a good middle ground.
- Abstract(参考訳): 本研究は,質問生成モデルが教科書に応用可能かどうかについて検討する。
このようなシステムにおけるエラーのかなりの部分は、無関係または解釈不能な質問から発生し、要約された入力を提供することで、そのようなエラーを改善できることを示します。
原文の代わりに人書き要約を付与すると、専門家アノテータによって決定されるような、生成した質問(33%$\rightarrow$83%)の受理性が著しく向上することがわかった。
また、人間が書いた要約がなければ、自動要約が良い中間地盤として役立つこともわかりました。
関連論文リスト
- ExpertQA: Expert-Curated Questions and Attributed Answers [54.764273324907684]
本稿では,いくつかのシステムから得られる様々な事実と帰属の軸を解析する評価研究について述べる。
まず、32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する回答を評価する。
また、専門家に言語モデルによる回答の修正を依頼し、32分野にわたる2177の質問からなる高品質の長文QAデータセットであるExpertQAを導いた。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Covering Uncommon Ground: Gap-Focused Question Generation for Answer
Assessment [75.59538732476346]
このようなギャップに着目した質問(GFQ)を自動生成する問題に着目する。
タスクを定義し、優れたGFQの所望の側面を強調し、これらを満たすモデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T22:21:42Z) - Connecting Humanities and Social Sciences: Applying Language and Speech
Technology to Online Panel Surveys [2.0646127669654835]
オランダのパネル調査において,言語と音声技術のオープンエンド質問への適用について検討した。
実験波では、回答者は音声やキーボードを使ってオープンな質問に答えることができた。
本稿では,ASRシステムが生成した誤りを報告し,これらの誤りが下流解析に与える影響について検討する。
論文 参考訳(メタデータ) (2023-02-21T10:52:15Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Shortcomings of Question Answering Based Factuality Frameworks for Error
Localization [51.01957350348377]
質問応答(QA)に基づく事実性指標は、生成した要約の誤り範囲を正しく識別できないことを示す。
このようなローカライゼーションが不十分な理由として,QGモジュールが生成した質問は,非実数的な要約から誤りを継承することが多く,さらに下流モジュールに伝播する。
本実験は,より強力なQAモデルとQGモデルでのみ修正できないQAフレームワークを用いた局所化に関する根本的な問題が存在することを確定的に示す。
論文 参考訳(メタデータ) (2022-10-13T05:23:38Z) - 'John ate 5 apples' != 'John ate some apples': Self-Supervised
Paraphrase Quality Detection for Algebraic Word Problems [5.682665111938764]
本稿では,代数的単語問題(AWP)のための新しいパラフレーズ作成タスクについて紹介する。
本稿では,新しいデータ拡張を用いた自己教師付きパラフレーズ品質検出手法であるParaQDを提案する。
提案手法は,既存の最先端の自己監督手法を最大32%向上させると同時に,印象的なゼロショット性能を誇示する。
論文 参考訳(メタデータ) (2022-06-16T16:01:59Z) - Few-shot Question Generation for Personalized Feedback in Intelligent
Tutoring Systems [22.167776818471026]
パーソナライズされた修正フィードバックシステムは、生成質問応答システムを改善する可能性があることを示す。
実対話型ITSでは,生徒の学習能力が45%,23%向上した。
論文 参考訳(メタデータ) (2022-06-08T22:59:23Z) - Educational Question Generation of Children Storybooks via Question Type
Distribution Learning and Event-Centric Summarization [59.18781827897894]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。