論文の概要: OneStop QAMaker: Extract Question-Answer Pairs from Text in a One-Stop
Approach
- arxiv url: http://arxiv.org/abs/2102.12128v1
- Date: Wed, 24 Feb 2021 08:45:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:34:47.663584
- Title: OneStop QAMaker: Extract Question-Answer Pairs from Text in a One-Stop
Approach
- Title(参考訳): OneStop QAMaker: テキストから質問応答ペアを抽出するワンストップアプローチ
- Authors: Shaobo Cui, Xintong Bao, Xinxing Zu, Yangyang Guo, Zhongzhou Zhao, Ji
Zhang, Haiqing Chen
- Abstract要約: 本論文では,文書からQAペアを生成するOneStopというモデルを提案する。
具体的には、質問と対応する回答を同時に抽出する。
OneStopは、複雑なQA生成タスクを解決するために1つのモデルしか必要としないため、産業シナリオでトレーニングやデプロイを行うのがずっと効率的です。
- 参考スコア(独自算出の注目度): 11.057028572260064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale question-answer (QA) pairs are critical for advancing research
areas like machine reading comprehension and question answering. To construct
QA pairs from documents requires determining how to ask a question and what is
the corresponding answer. Existing methods for QA pair generation usually
follow a pipeline approach. Namely, they first choose the most likely candidate
answer span and then generate the answer-specific question. This pipeline
approach, however, is undesired in mining the most appropriate QA pairs from
documents since it ignores the connection between question generation and
answer extraction, which may lead to incompatible QA pair generation, i.e., the
selected answer span is inappropriate for question generation. However, for
human annotators, we take the whole QA pair into account and consider the
compatibility between question and answer. Inspired by such motivation, instead
of the conventional pipeline approach, we propose a model named OneStop
generate QA pairs from documents in a one-stop approach. Specifically,
questions and their corresponding answer span is extracted simultaneously and
the process of question generation and answer extraction mutually affect each
other. Additionally, OneStop is much more efficient to be trained and deployed
in industrial scenarios since it involves only one model to solve the complex
QA generation task. We conduct comprehensive experiments on three large-scale
machine reading comprehension datasets: SQuAD, NewsQA, and DuReader. The
experimental results demonstrate that our OneStop model outperforms the
baselines significantly regarding the quality of generated questions, quality
of generated question-answer pairs, and model efficiency.
- Abstract(参考訳): 大規模質問応答(QA)ペアは、機械読解や質問応答といった研究領域の進展に不可欠である。
QAのペアを文書から構築するには、質問する方法と対応する答えを決定する必要があります。
既存のQAペア生成メソッドは通常、パイプラインアプローチに従います。
すなわち、まず最も可能性の高い回答スパンを選択し、その後に回答固有の質問を生成する。
しかし、このパイプラインアプローチは、質問生成と回答抽出の間の接続を無視しているため、ドキュメントから最も適切なQAペアをマイニングすることは望ましくありません。
しかしながら、人間のアノテータに対しては、QAペア全体を考慮し、質問と回答の互換性を考慮する。
このようなモチベーションにインスパイアされたOneStopは、従来のパイプラインアプローチではなく、文書からQAペアをワンストップで生成するモデルを提案する。
具体的には、質問とその回答スパンを同時に抽出し、質問生成と回答抽出のプロセスが相互に影響を及ぼす。
さらにOneStopは、複雑なQA生成タスクを解決するために1つのモデルのみを必要とするため、産業シナリオでトレーニングやデプロイを行うのがはるかに効率的です。
我々は,SQuAD,NewsQA,DuReaderの3つの大規模機械読解データセットについて総合的な実験を行った。
実験結果から, 生成した質問の質, 生成した質問応答対の品質, モデル効率について, ベースラインをはるかに上回る結果が得られた。
関連論文リスト
- An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Generating Self-Contained and Summary-Centric Question Answer Pairs via
Differentiable Reward Imitation Learning [7.2745835227138045]
本稿では,質問応答対(QAペア)を自己完結型,要約型,長さ制約型,記事要約型で生成するモデルを提案する。
このデータセットは、回答として要約を生成するQAペア生成モデルを学ぶために使用される。
論文 参考訳(メタデータ) (2021-09-10T06:34:55Z) - GTM: A Generative Triple-Wise Model for Conversational Question
Generation [36.33685095934868]
オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-07T14:07:07Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Fluent Response Generation for Conversational Question Answering [15.826109118064716]
本稿では,SEQ2SEQ NLGアプローチで応答をシチュレートする手法を提案する。
我々は、エンドツーエンドシステムのトレーニングデータを生成するためにデータ拡張を使用します。
論文 参考訳(メタデータ) (2020-05-21T04:57:01Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。