論文の概要: Quiz-Style Question Generation for News Stories
- arxiv url: http://arxiv.org/abs/2102.09094v1
- Date: Thu, 18 Feb 2021 01:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:28:31.872432
- Title: Quiz-Style Question Generation for News Stories
- Title(参考訳): ニュースストーリーのためのクイズスタイル質問生成
- Authors: Adam D. Lelkes, Vinh Q. Tran, Cong Yu
- Abstract要約: 本稿では,最近のニュースの知識をユーザに提供するクイズ型複数選択質問生成の課題について検討する。
クイズ形式の質問応答生成を目的とした最初のデータセットであるNewsQuizQAを紹介します。
私たちのモデルは、自動メトリックとヒューマンレーティングの両方を使用して強力なベースラインを上回ります。
- 参考スコア(独自算出の注目度): 1.1905186133527312
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A large majority of American adults get at least some of their news from the
Internet. Even though many online news products have the goal of informing
their users about the news, they lack scalable and reliable tools for measuring
how well they are achieving this goal, and therefore have to resort to noisy
proxy metrics (e.g., click-through rates or reading time) to track their
performance.
As a first step towards measuring news informedness at a scale, we study the
problem of quiz-style multiple-choice question generation, which may be used to
survey users about their knowledge of recent news. In particular, we formulate
the problem as two sequence-to-sequence tasks: question-answer generation (QAG)
and distractor, or incorrect answer, generation (DG). We introduce NewsQuizQA,
the first dataset intended for quiz-style question-answer generation,
containing 20K human written question-answer pairs from 5K news article
summaries. Using this dataset, we propose a series of novel techniques for
applying large pre-trained Transformer encoder-decoder models, namely PEGASUS
and T5, to the tasks of question-answer generation and distractor generation.
We show that our models outperform strong baselines using both automated
metrics and human raters. We provide a case study of running weekly quizzes on
real-world users via the Google Surveys platform over the course of two months.
We found that users generally found the automatically generated questions to be
educational and enjoyable. Finally, to serve the research community, we are
releasing the NewsQuizQA dataset.
- Abstract(参考訳): アメリカの成人の大多数は、少なくとも一部のニュースをインターネットから得ている。
多くのオンラインニュース製品はユーザーにニュースを伝えるという目標を持っているが、この目標を達成するためのスケーラブルで信頼性の高いツールが欠けているため、パフォーマンスを追跡するにはノイズの多いプロキシメトリクス(クリックスルーレートや読み込み時間など)を使わなければならない。
本稿では,ニュース情報度を大規模に測定する第一歩として,最近のニュースの知識をユーザに提供するクイズスタイルの複数選択質問生成の問題について検討する。
特に,質問応答生成(QAG)と不適切な回答,生成(DG)の2つのシーケンス・ツー・シーケンスタスクとして問題を定式化する。
5kニュース記事要約から2kの人間による質問応答ペアを含む,クイズ形式の質問応答生成を目的とした最初のデータセットであるnewsquizqaを紹介する。
そこで本稿では,このデータセットを用いて,pegasus と t5 という大容量プリトレーニングトランスコーダ・デコーダモデルを適用し,質問者生成と邪魔者生成のタスクに適用する手法を提案する。
私たちのモデルは、自動メトリックとヒューマンレーティングの両方を使用して強力なベースラインを上回ります。
Google Surveysプラットフォームを通じて,2ヶ月間にわたって,実世界のユーザに対して毎週クイズを実行するケーススタディを提供する。
ユーザーは通常、自動的に生成された質問が教育的で楽しいことが分かりました。
最後に、研究コミュニティに奉仕するために、newsquizqaデータセットをリリースします。
関連論文リスト
- NewsQs: Multi-Source Question Generation for the Inquiring Mind [59.79288644158271]
我々は複数のニュース文書に対して質問応答ペアを提供するデータセットであるNewsQsを紹介する。
FAQスタイルのニュース記事に微調整されたT5-Largeモデルによって自動生成される質問を,従来のマルチドキュメント要約データセットに拡張する。
論文 参考訳(メタデータ) (2024-02-28T16:59:35Z) - Knowledge Transfer from Answer Ranking to Answer Generation [97.38378660163414]
我々は、訓練されたAS2モデルから知識を伝達することで、GenQAモデルをトレーニングすることを提案する。
また,AS2モデル予測スコアを損失重み付けおよびスコア条件付き入出力整形に用いることを提案する。
論文 参考訳(メタデータ) (2022-10-23T21:51:27Z) - CONSISTENT: Open-Ended Question Generation From News Articles [38.41162895492449]
オープンな質問を生成するための新しいエンドツーエンドシステムであるConSISTENTを提案する。
我々は,自動評価と人的評価の両方を用いて,複数のベースライン上でのモデルの強さを実証する。
ニュースメディア組織におけるダウンストリーム応用の可能性について論じる。
論文 参考訳(メタデータ) (2022-10-20T19:10:07Z) - Quiz Design Task: Helping Teachers Create Quizzes with Automated
Question Generation [87.34509878569916]
本稿では,教師が読解クイズを自動生成するためのユースケースに焦点を当てた。
本研究は,クイズを構築中の教師が質問を受講し,それに応じるか,あるいは拒否するかのどちらかを理由として行う。
論文 参考訳(メタデータ) (2022-05-03T18:59:03Z) - Read before Generate! Faithful Long Form Question Answering with Machine
Reading [77.17898499652306]
LFQA(Long-form Question answering)は、ある質問に対する段落長の回答を生成することを目的としている。
生成と機械読取を協調的にモデル化する新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T10:41:17Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Predicting Subjective Features of Questions of QA Websites using BERT [0.0]
コミュニティ質問-StackOverflowやQuoraといったWebサイトは、ユーザがコンテンツ品質を維持するために、特定のガイドラインに従うことを期待している。
我々は,QA Webサイトにおける質問の質や主観的な側面を20程度予測するモデルの提供を目指している。
単純な微調整によって、少ない時間と少ない量のデータで正確なモデルを実現できる。
論文 参考訳(メタデータ) (2020-02-24T07:56:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。