論文の概要: DoQA -- Accessing Domain-Specific FAQs via Conversational QA
- arxiv url: http://arxiv.org/abs/2005.01328v2
- Date: Mon, 18 May 2020 07:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:47:09.187784
- Title: DoQA -- Accessing Domain-Specific FAQs via Conversational QA
- Title(参考訳): DoQA - 会話型QAによるドメイン特化FAQへのアクセス
- Authors: Jon Ander Campos, Arantxa Otegi, Aitor Soroa, Jan Deriu, Mark
Cieliebak, Eneko Agirre
- Abstract要約: 2,437の対話と10,917のQAペアを持つデータセットであるDoQAを提示する。
対話は、クラウドソーシングを備えたWizard of Ozメソッドを使用して、3つのStack Exchangeサイトから収集される。
- 参考スコア(独自算出の注目度): 25.37327993590628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this work is to build conversational Question Answering (QA)
interfaces for the large body of domain-specific information available in FAQ
sites. We present DoQA, a dataset with 2,437 dialogues and 10,917 QA pairs. The
dialogues are collected from three Stack Exchange sites using the Wizard of Oz
method with crowdsourcing. Compared to previous work, DoQA comprises
well-defined information needs, leading to more coherent and natural
conversations with less factoid questions and is multi-domain. In addition, we
introduce a more realistic information retrieval(IR) scenario where the system
needs to find the answer in any of the FAQ documents. The results of an
existing, strong, system show that, thanks to transfer learning from a
Wikipedia QA dataset and fine tuning on a single FAQ domain, it is possible to
build high quality conversational QA systems for FAQs without in-domain
training data. The good results carry over into the more challenging IR
scenario. In both cases, there is still ample room for improvement, as
indicated by the higher human upperbound.
- Abstract(参考訳): 本研究の目的は,FAQ サイトで利用可能なドメイン固有情報の大部分を対象とした対話型質問応答 (QA) インターフェースを構築することである。
2,437の対話と10,917のQAペアを持つデータセットであるDoQAを提示する。
対話はクラウドソーシングによるozメソッドのウィザードを使用して、3つのスタック交換サイトから収集される。
以前の研究と比較すると、DoQAは明確に定義された情報要求を含んでおり、より一貫性があり、よりファクトイドな質問と自然な会話をもたらし、マルチドメインである。
さらに,より現実的な情報検索(ir)シナリオを導入して,faq文書のどれかに回答を求める。
既存の強力なシステムは、ウィキペディアのQAデータセットからの変換学習と単一のFAQドメインでの微調整により、ドメイン内のトレーニングデータなしでFAQのための高品質な会話型QAシステムを構築することができることを示している。
良い結果は、より困難なIRシナリオに続きます。
どちらの場合でも、より高いヒトの上界で示されるように、改善の余地は十分にある。
関連論文リスト
- Conversational Tree Search: A New Hybrid Dialog Task [21.697256733634124]
FAQ型情報検索とタスク指向対話のギャップを埋める新しいタスクとして,会話木探索(CTS)を導入した。
その結果,新たなアーキテクチャは,ベースラインで使用されるFAQとダイアログシステムの両方の肯定的な側面を結合し,より高い目標達成を実現していることがわかった。
論文 参考訳(メタデータ) (2023-03-17T19:50:51Z) - MFBE: Leveraging Multi-Field Information of FAQs for Efficient Dense
Retrieval [1.7403133838762446]
本稿では,複数組み合わせのFAQフィールドを利用するバイエンコーダベースのクエリ-FAQマッチングモデルを提案する。
本モデルでは,内部およびオープンデータセットにおけるFAQ検索タスクにおいて,約27%,20%の精度でトップ1の精度を実現している。
論文 参考訳(メタデータ) (2023-02-23T12:02:49Z) - RealTime QA: What's the Answer Right Now? [137.04039209995932]
本稿では,動的質問応答(QA)プラットフォームであるREALTIME QAを紹介する。
GPT-3 や T5 など,大規模事前学習型言語モデルに基づく強力なベースラインモデルを構築した。
GPT-3は、検索された文書が答えを見つけるのに十分な情報を提供していない場合、時代遅れの回答を返す傾向がある。
論文 参考訳(メタデータ) (2022-07-27T07:26:01Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。