論文の概要: A Feasibility Study of Answer-Unaware Question Generation for Education
- arxiv url: http://arxiv.org/abs/2203.08685v1
- Date: Wed, 16 Mar 2022 15:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 17:49:16.080889
- Title: A Feasibility Study of Answer-Unaware Question Generation for Education
- Title(参考訳): 教育における回答を意識した質問生成の可能性に関する研究
- Authors: Liam Dugan, Eleni Miltsakaki, Shriyash Upadhyay, Etan Ginsberg, Hannah
Gonzalez, Dayheon Choi, Chuning Yuan, Chris Callison-Burch
- Abstract要約: このようなシステムにおけるエラーのかなりの部分は、無関係または解釈不能な質問から生じていることを示す。
これらのモデルが原文ではなく人文要約となると、生成した質問の受理性が著しく向上することがわかった。
- 参考スコア(独自算出の注目度): 14.434418277566383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We conduct a feasibility study into the applicability of answer-unaware
question generation models to textbook passages. We show that a significant
portion of errors in such systems arise from asking irrelevant or
uninterpretable questions and that such errors can be ameliorated by providing
summarized input. We find that giving these models human-written summaries
instead of the original text results in a significant increase in acceptability
of generated questions (33% $\rightarrow$ 83%) as determined by expert
annotators. We also find that, in the absence of human-written summaries,
automatic summarization can serve as a good middle ground.
- Abstract(参考訳): 本研究は,質問生成モデルが教科書に応用可能かどうかについて検討する。
このようなシステムにおけるエラーのかなりの部分は、無関係または解釈不能な質問から発生し、要約された入力を提供することで、そのようなエラーを改善できることを示します。
原文の代わりに人書き要約を付与すると、専門家アノテータによって決定されるような、生成した質問(33%$\rightarrow$83%)の受理性が著しく向上することがわかった。
また、人間が書いた要約がなければ、自動要約が良い中間地盤として役立つこともわかりました。
関連論文リスト
- Localizing and Mitigating Errors in Long-form Question Answering [79.63372684264921]
LFQA(Long-form Question answering)は、複雑な質問に対して徹底的で深い回答を提供し、理解を深めることを目的としている。
この研究は、人書きおよびモデル生成LFQA回答の局所的エラーアノテーションを備えた最初の幻覚データセットであるHaluQuestQAを紹介する。
論文 参考訳(メタデータ) (2024-07-16T17:23:16Z) - Automated Question Generation for Science Tests in Arabic Language Using NLP Techniques [5.233512464561313]
本研究は,3段階のプロセス上に構築されたイノベーティブなアラビア質問生成システムを提案する。
提案手法と結果は83.50%の精度、78.68%のリコール、80.95%のFlスコアを示している。
論文 参考訳(メタデータ) (2024-06-11T20:27:45Z) - Groundedness in Retrieval-augmented Long-form Generation: An Empirical Study [61.74571814707054]
検索した文書やモデルの事前学習データに生成されたすべての文が接地されているかどうかを評価する。
3つのデータセットと4つのモデルファミリーにまたがって、生成した文のかなりの部分が一貫してアングラウンド化されていることが明らかとなった。
以上の結果から,より大きなモデルではアウトプットをより効果的に基礎づける傾向にあるものの,正解のかなりの部分が幻覚によって損なわれていることが示唆された。
論文 参考訳(メタデータ) (2024-04-10T14:50:10Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Covering Uncommon Ground: Gap-Focused Question Generation for Answer
Assessment [75.59538732476346]
このようなギャップに着目した質問(GFQ)を自動生成する問題に着目する。
タスクを定義し、優れたGFQの所望の側面を強調し、これらを満たすモデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T22:21:42Z) - 'John ate 5 apples' != 'John ate some apples': Self-Supervised
Paraphrase Quality Detection for Algebraic Word Problems [5.682665111938764]
本稿では,代数的単語問題(AWP)のための新しいパラフレーズ作成タスクについて紹介する。
本稿では,新しいデータ拡張を用いた自己教師付きパラフレーズ品質検出手法であるParaQDを提案する。
提案手法は,既存の最先端の自己監督手法を最大32%向上させると同時に,印象的なゼロショット性能を誇示する。
論文 参考訳(メタデータ) (2022-06-16T16:01:59Z) - Few-shot Question Generation for Personalized Feedback in Intelligent
Tutoring Systems [22.167776818471026]
パーソナライズされた修正フィードバックシステムは、生成質問応答システムを改善する可能性があることを示す。
実対話型ITSでは,生徒の学習能力が45%,23%向上した。
論文 参考訳(メタデータ) (2022-06-08T22:59:23Z) - Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-Centric Summarization [67.1483219601714]
本稿では,まず,入力記事段落の質問型分布を学習する新しい質問生成手法を提案する。
学習用問合せペアで構成された銀のサンプルを用いて,事前学習したトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを構築する。
本研究は,質問型分布学習とイベント中心の要約生成の分離の必要性を示唆するものである。
論文 参考訳(メタデータ) (2022-03-27T02:21:19Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Asking Questions the Human Way: Scalable Question-Answer Generation from
Text Corpus [23.676748207014903]
問合せ型質問生成(ACS-QG)を提案する。
ラベルなしテキストコーパスから高品質で多様な質問応答ペアを大規模に自動生成することを目的としている。
ウィキペディアで見つかった100万の文から、280万の質保証された質問応答ペアを生成することができる。
論文 参考訳(メタデータ) (2020-01-27T05:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。