論文の概要: Multi-Type Conversational Question-Answer Generation with Closed-ended
and Unanswerable Questions
- arxiv url: http://arxiv.org/abs/2210.12979v1
- Date: Mon, 24 Oct 2022 07:01:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 16:44:02.532813
- Title: Multi-Type Conversational Question-Answer Generation with Closed-ended
and Unanswerable Questions
- Title(参考訳): クローズド・アンサーブルな質問を用いた多型会話型質問応答生成
- Authors: Seonjeong Hwang, Yunsu Kim, Gary Geunbae Lee
- Abstract要約: 会話型質問応答(CQA)は、与えられたコンテキストの漸進的でインタラクティブな理解を促進する。
オープンエンド,クローズドエンド,未解決の質問など,さまざまな質問タイプでCQA用のデータを合成する新しい手法を提案する。
4つの領域にまたがって、我々の合成データに基づいて訓練されたCQAシステムは、人間の注釈付きデータに基づいて訓練されたシステムに近い優れた性能を示す。
- 参考スコア(独自算出の注目度): 3.6825890616838066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational question answering (CQA) facilitates an incremental and
interactive understanding of a given context, but building a CQA system is
difficult for many domains due to the problem of data scarcity. In this paper,
we introduce a novel method to synthesize data for CQA with various question
types, including open-ended, closed-ended, and unanswerable questions. We
design a different generation flow for each question type and effectively
combine them in a single, shared framework. Moreover, we devise a hierarchical
answerability classification (hierarchical AC) module that improves quality of
the synthetic data while acquiring unanswerable questions. Manual inspections
show that synthetic data generated with our framework have characteristics very
similar to those of human-generated conversations. Across four domains, CQA
systems trained on our synthetic data indeed show good performance close to the
systems trained on human-annotated data.
- Abstract(参考訳): 会話型質問応答(CQA)は、与えられたコンテキストの漸進的かつインタラクティブな理解を促進するが、データ不足の問題により、多くの領域においてCQAシステムの構築は困難である。
本稿では,オープンエンド,クローズドエンド,未解決の質問など,さまざまな質問タイプでCQAのデータを合成する新しい手法を提案する。
質問の種類ごとに異なる生成フローを設計し、それらを単一の共有フレームワークで効果的に組み合わせます。
さらに,階層的応答性分類(階層的ac)モジュールを考案し,不可解な質問を得ながら合成データの品質を向上させる。
手動検査の結果,本フレームワークで生成した合成データは,人間による会話と非常によく似た特徴を持つことがわかった。
4つの領域にまたがって、我々の合成データに基づいて訓練されたCQAシステムは、人間の注釈付きデータに基づいて訓練されたシステムに近い性能を示す。
関連論文リスト
- Unsupervised multiple choices question answering via universal corpus [27.78825771434918]
本稿では,MCQAデータを生成するための新しいフレームワークを提案する。
我々は、名前付きエンティティ(NE)と知識グラフの両方を活用して、完全な合成サンプルを形成するための可視な乱れを発見する。
論文 参考訳(メタデータ) (2024-02-27T09:10:28Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - QADYNAMICS: Training Dynamics-Driven Synthetic QA Diagnostic for
Zero-Shot Commonsense Question Answering [48.25449258017601]
State-of-the-artはCommonSense Knowledge Basesから構築されたQAペア上での微調整言語モデルにアプローチする。
本稿では,QA診断と改善のためのトレーニング動的フレームワークQADYNAMICSを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:27:34Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Improving Question Answering with Generation of NQ-like Questions [12.276281998447079]
QA ( Question Answering) システムは大量の注釈付きデータを必要とする。
本研究では,Quizbowl(QB)データセットの長いトリビア質問からNatural Questions(NQ)データセットにおいて,日々のコミュニケーションに似た短い質問を自動的に生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-12T21:36:20Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - GTM: A Generative Triple-Wise Model for Conversational Question
Generation [36.33685095934868]
オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-07T14:07:07Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。