論文の概要: QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation
- arxiv url: http://arxiv.org/abs/2202.06538v1
- Date: Mon, 14 Feb 2022 08:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 03:40:57.233572
- Title: QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation
- Title(参考訳): qa4qg: 質問応答を用いたマルチホップ質問生成
- Authors: Dan Su, Peng Xu, Pascale Fung
- Abstract要約: マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
- 参考スコア(独自算出の注目度): 54.136509061542775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop question generation (MQG) aims to generate complex questions which
require reasoning over multiple pieces of information of the input passage.
Most existing work on MQG has focused on exploring graph-based networks to
equip the traditional Sequence-to-sequence framework with reasoning ability.
However, these models do not take full advantage of the constraint between
questions and answers. Furthermore, studies on multi-hop question answering
(QA) suggest that Transformers can replace the graph structure for multi-hop
reasoning. Therefore, in this work, we propose a novel framework, QA4QG, a
QA-augmented BART-based framework for MQG. It augments the standard BART model
with an additional multi-hop QA module to further constrain the generated
question. Our results on the HotpotQA dataset show that QA4QG outperforms all
state-of-the-art models, with an increase of 8 BLEU-4 and 8 ROUGE points
compared to the best results previously reported. Our work suggests the
advantage of introducing pre-trained language models and QA module for the MQG
task.
- Abstract(参考訳): マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGに関する既存の作業の多くは、従来のSequence-to-Sequenceフレームワークに推論能力を持たせるために、グラフベースのネットワークの探索に重点を置いている。
しかし、これらのモデルは質問と回答の制約を完全に活用するわけではない。
さらに、マルチホップ質問応答(QA)の研究は、トランスフォーマーがグラフ構造をマルチホップ推論に置き換えることができることを示唆している。
そこで本研究では,MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
標準のBARTモデルにマルチホップQAモジュールを追加して、生成された質問をさらに制限する。
HotpotQAデータセットを用いた結果,QA4QGは,これまでに報告した最良結果と比較して,8 BLEU-4 と 8 ROUGE の点で,最先端モデルよりも優れていた。
我々の研究は、MQGタスクに事前訓練された言語モデルとQAモジュールを導入する利点を示唆している。
関連論文リスト
- GenDec: A robust generative Question-decomposition method for Multi-hop
reasoning [32.12904215053187]
マルチホップQAには、複雑な質問に答えるステップバイステップの推論が含まれる。
マルチホップ質問応答における既存の大規模言語モデル(LLM)推論能力は現在も探索が続けられている。
LLMが正しい結論に達するために望ましい推論連鎖に従うかどうかは不明である。
論文 参考訳(メタデータ) (2024-02-17T02:21:44Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Understanding and Improving Zero-shot Multi-hop Reasoning in Generative
Question Answering [85.79940770146557]
マルチホップ質問を複数の単一ホップ質問に分解する。
これらの対の見かけ上同一の問合せ連鎖について、QAモデルの答えに顕著な矛盾が認められる。
シングルホップの質問だけを訓練すると、モデルはマルチホップの質問に対してあまり一般化しない。
論文 参考訳(メタデータ) (2022-10-09T11:48:07Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Ask to Understand: Question Generation for Multi-hop Question Answering [11.626390908264872]
マルチホップ質問回答 (Multi-hop Question Answering, QA) は、複数の文書から散乱した手がかりを見つけ、推論することで複雑な質問に答えることを要求する。
質問生成(QG)の観点から,マルチホップQAを補完する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T04:02:29Z) - Unified Question Generation with Continual Lifelong Learning [41.81627903996791]
既存のQGメソッドは主に、特定のQGデータセットの構築やトレーニングに重点を置いている。
本稿では,生涯学習技術に基づくUnifiedQGというモデルを提案し,QGタスクを継続的に学習する。
さらに,1つの訓練済みUnified-QGモデルの能力を変化させて,QAシステムの性能を8ドル(約8,800円)で向上させる。
論文 参考訳(メタデータ) (2022-01-24T14:05:18Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。