論文の概要: TopiOCQA: Open-domain Conversational Question Answeringwith Topic
Switching
- arxiv url: http://arxiv.org/abs/2110.00768v1
- Date: Sat, 2 Oct 2021 09:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 03:18:56.266935
- Title: TopiOCQA: Open-domain Conversational Question Answeringwith Topic
Switching
- Title(参考訳): TopiOCQA: トピックスイッチによるオープンドメイン会話質問応答
- Authors: Vaibhav Adlakha, Shehzaad Dhuliawala, Kaheer Suleman, Harm de Vries,
Siva Reddy
- Abstract要約: トピックスイッチ付きオープンドメイン会話データセットであるTopiOCQAをWikipediaで紹介する。
TopiOCQAには3,920の会話と情報検索の質問と自由形式の回答が含まれている。
我々は、最先端の文書検索手法とニューラルリーダーモデルを組み合わせることで、いくつかのベースラインを評価する。
- 参考スコア(独自算出の注目度): 11.717296856448566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a conversational question answering scenario, a questioner seeks to
extract information about a topic through a series of interdependent questions
and answers. As the conversation progresses, they may switch to related topics,
a phenomenon commonly observed in information-seeking search sessions. However,
current datasets for conversational question answering are limiting in two
ways: 1) they do not contain topic switches; and 2) they assume the reference
text for the conversation is given, i.e., the setting is not open-domain. We
introduce TopiOCQA (pronounced Tapioca), an open-domain conversational dataset
with topic switches on Wikipedia. TopiOCQA contains 3,920 conversations with
information-seeking questions and free-form answers. TopiOCQA poses a
challenging test-bed for models, where efficient retrieval is required on
multiple turns of the same conversation, in conjunction with constructing valid
responses using conversational history. We evaluate several baselines, by
combining state-of-the-art document retrieval methods with neural reader
models. Our best models achieves F1 of 51.9, and BLEU score of 42.1 which falls
short of human performance by 18.3 points and 17.6 points respectively,
indicating the difficulty of our dataset. Our dataset and code will be
available at https://mcgill-nlp.github.io/topiocqa
- Abstract(参考訳): 会話型質問応答シナリオでは、質問者は、一連の相互依存的な質問や回答を通じてトピックに関する情報を抽出しようとする。
会話が進むにつれて、情報検索のセッションでよく見られる現象である関連トピックに切り替えることができる。
しかし、会話型質問応答のための現在のデータセットには2つの制限がある。
1)トピックスイッチは含まない。
2)会話の参照テキストが与えられる、すなわち、設定はオープンドメインではない、と仮定する。
TopiOCQA (Tapioca) はウィキペディアのトピックスイッチを備えたオープンドメイン会話データセットである。
TopiOCQAには3,920件の質問と自由形式の回答が含まれている。
TopiOCQAは、会話履歴を用いて有効な応答を構築するとともに、同じ会話の複数のターンで効率的な検索を必要とするモデルに対して、挑戦的なテストベッドを提供する。
本研究では,最先端文書検索法とニューラルリーダモデルを組み合わせたベースラインの評価を行った。
我々の最良のモデルは51.9のF1と42.1のBLEUスコアをそれぞれ18.3のポイントと17.6のポイントで達成し、データセットの難易度を示している。
私たちのデータセットとコードはhttps://mcgill-nlp.github.io/topiocqaで公開されます。
関連論文リスト
- PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - An Answer Verbalization Dataset for Conversational Question Answerings
over Knowledge Graphs [9.979689965471428]
本稿では,既存のConvQAデータセットを言語化された回答で拡張することによって,最先端技術に寄与する。
5つのシーケンス・ツー・シーケンスモデルを用いて,文法的正しさを維持しながら応答生成実験を行った。
論文 参考訳(メタデータ) (2022-08-13T21:21:28Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - ParaQA: A Question Answering Dataset with Paraphrase Responses for
Single-Turn Conversation [5.087932295628364]
ParaQAは知識グラフ(KG)上の1ターン会話のための複数のパラフレーズ応答を持つデータセットである
データセットは半自動的なフレームワークを使って、バックトランスレーションのようなテクニックを使って、さまざまな回答のパラフレージングを生成する。
論文 参考訳(メタデータ) (2021-03-13T18:53:07Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。