論文の概要: Consecutive Question Generation via Dynamic Multitask Learning
- arxiv url: http://arxiv.org/abs/2211.08850v1
- Date: Wed, 16 Nov 2022 11:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:03:43.127203
- Title: Consecutive Question Generation via Dynamic Multitask Learning
- Title(参考訳): 動的マルチタスク学習による逐次質問生成
- Authors: Yunji Li, Sujian Li, Xing Shi
- Abstract要約: 本稿では,論理的に関連する質問応答対の集合を生成する連続質問生成タスク(CQG)を提案する。
まず、CQGの4つのキー要素について検討し、1つのメインタスクが質問応答ペアを生成し、4つの補助タスクが他の要素を生成する新しい動的マルチタスクフレームワークを提案する。
我々は,我々の戦略が質問生成を大幅に改善し,複数の関連するNLPタスクに利益をもたらすことを証明した。
- 参考スコア(独自算出の注目度): 17.264399861776187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose the task of consecutive question generation (CQG),
which generates a set of logically related question-answer pairs to understand
a whole passage, with a comprehensive consideration of the aspects including
accuracy, coverage, and informativeness. To achieve this, we first examine the
four key elements of CQG, i.e., question, answer, rationale, and context
history, and propose a novel dynamic multitask framework with one main task
generating a question-answer pair, and four auxiliary tasks generating other
elements. It directly helps the model generate good questions through both
joint training and self-reranking. At the same time, to fully explore the
worth-asking information in a given passage, we make use of the reranking
losses to sample the rationales and search for the best question series
globally. Finally, we measure our strategy by QA data augmentation and manual
evaluation, as well as a novel application of generated question-answer pairs
on DocNLI. We prove that our strategy can improve question generation
significantly and benefit multiple related NLP tasks.
- Abstract(参考訳): 本稿では,文全体を理解するために,論理的に関連する質問・回答ペアの組を生成する連続質問生成タスク(cqg)を提案し,正確性,範囲,情報性などの側面を包括的に検討する。
そこで我々はまず,CQGの4つの重要な要素,すなわち質問,回答,合理化,コンテキスト履歴について検討し,質問応答ペアを生成する1つの主要なタスクと,他の要素を生成する4つの補助タスクを備えた新しい動的マルチタスクフレームワークを提案する。
これは、ジョイントトレーニングと自己評価の両方を通じて、モデルが優れた質問を直接生成するのに役立つ。
同時に、与えられた通路における価値のある情報を完全に探求するために、我々は、再ランクされた損失を利用して、論理をサンプリングし、世界最高の質問シリーズを検索する。
最後に、QAデータ拡張と手動評価による戦略の評価を行い、DocNLI上で生成した質問応答ペアの新たな応用について述べる。
我々の戦略が質問生成を大幅に改善し、複数の関連するNLPタスクに利益をもたらすことを実証する。
関連論文リスト
- An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Rethinking Label Smoothing on Multi-hop Question Answering [87.68071401870283]
MHQA (Multi-Hop Question Answering) は質問応答において重要な分野である。
本研究では,マルチホップ推論の性能を制限する主要な要因を解析する。
学習プロセスに不確実性を組み込んだ新しいラベル平滑化手法F1 Smoothingを提案する。
論文 参考訳(メタデータ) (2022-12-19T14:48:08Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Asking Questions Like Educational Experts: Automatically Generating
Question-Answer Pairs on Real-World Examination Data [10.353009081072992]
本稿では,実世界の検査データ上での質問応答対生成課題に対処し,RASに関する新たな統合フレームワークを提案する。
本稿では,質問文とキーフレーズを反復的に生成・最適化するマルチエージェント通信モデルを提案する。
実験結果から,質問応答対生成タスクにおいて,本モデルが大きなブレークスルーをもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2021-09-11T04:10:57Z) - Generating Self-Contained and Summary-Centric Question Answer Pairs via
Differentiable Reward Imitation Learning [7.2745835227138045]
本稿では,質問応答対(QAペア)を自己完結型,要約型,長さ制約型,記事要約型で生成するモデルを提案する。
このデータセットは、回答として要約を生成するQAペア生成モデルを学ぶために使用される。
論文 参考訳(メタデータ) (2021-09-10T06:34:55Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。