論文の概要: QAConv: Question Answering on Informative Conversations
- arxiv url: http://arxiv.org/abs/2105.06912v1
- Date: Fri, 14 May 2021 15:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:52:44.839919
- Title: QAConv: Question Answering on Informative Conversations
- Title(参考訳): QAConv: インフォーマティブな会話に関する質問への回答
- Authors: Chien-Sheng Wu, Andrea Madotto, Wenhao Liu, Pascale Fung, Caiming
Xiong
- Abstract要約: ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
- 参考スコア(独自算出の注目度): 85.2923607672282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces QAConv, a new question answering (QA) dataset that uses
conversations as a knowledge source. We focus on informative conversations
including business emails, panel discussions, and work channels. Unlike
open-domain and task-oriented dialogues, these conversations are usually long,
complex, asynchronous, and involve strong domain knowledge. In total, we
collect 34,204 QA pairs, including span-based, free-form, and unanswerable
questions, from 10,259 selected conversations with both human-written and
machine-generated questions. We segment long conversations into chunks, and use
a question generator and dialogue summarizer as auxiliary tools to collect
multi-hop questions. The dataset has two testing scenarios, chunk mode and full
mode, depending on whether the grounded chunk is provided or retrieved from a
large conversational pool. Experimental results show that state-of-the-art QA
systems trained on existing QA datasets have limited zero-shot ability and tend
to predict our questions as unanswerable. Fine-tuning such systems on our
corpus can achieve significant improvement up to 23.6% and 13.6% in both chunk
mode and full mode, respectively.
- Abstract(参考訳): 本稿では,会話を知識源として利用するQAデータセットであるQAConvを紹介する。
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
オープンドメインやタスク指向の対話とは異なり、これらの会話は通常、長く、複雑で、非同期であり、強いドメイン知識を伴う。
計34,204組のQAペアを収集し,それぞれ10,259件の質問を人手による質問と機械による質問から抽出した。
長い会話をチャンクに分割し、質問生成器と対話要約器を補助ツールとして使用し、マルチホップ質問を収集する。
データセットには、接地されたチャンクが提供されるか、大きな会話プールから取得されるかによって、チャンクモードとフルモードの2つのテストシナリオがある。
実験の結果、既存のQAデータセットでトレーニングされた最先端のQAシステムはゼロショット能力に制限があり、我々の疑問は解決不可能であると予測する傾向がある。
我々のコーパス上の細調整システムは、それぞれチャンクモードとフルモードの両方で23.6%と13.6%の大幅な改善を達成できる。
関連論文リスト
- PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - TopiOCQA: Open-domain Conversational Question Answeringwith Topic
Switching [11.717296856448566]
トピックスイッチ付きオープンドメイン会話データセットであるTopiOCQAをWikipediaで紹介する。
TopiOCQAには3,920の会話と情報検索の質問と自由形式の回答が含まれている。
我々は、最先端の文書検索手法とニューラルリーダーモデルを組み合わせることで、いくつかのベースラインを評価する。
論文 参考訳(メタデータ) (2021-10-02T09:53:48Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - DoQA -- Accessing Domain-Specific FAQs via Conversational QA [25.37327993590628]
2,437の対話と10,917のQAペアを持つデータセットであるDoQAを提示する。
対話は、クラウドソーシングを備えたWizard of Ozメソッドを使用して、3つのStack Exchangeサイトから収集される。
論文 参考訳(メタデータ) (2020-05-04T08:58:54Z) - Conversations with Search Engines: SERP-based Conversational Response
Generation [77.1381159789032]
我々は、検索エンジンと対話するためのパイプラインを開発するために、適切なデータセット、検索・アズ・ア・会話(SaaC)データセットを作成します。
また、このデータセットを用いて、検索エンジンと対話するための最先端パイプライン(Conversations with Search Engines (CaSE))も開発しています。
CaSEは、サポートされたトークン識別モジュールとプリア・アウェア・ポインタージェネレータを導入することで最先端を向上する。
論文 参考訳(メタデータ) (2020-04-29T13:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。