論文の概要: ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers
- arxiv url: http://arxiv.org/abs/2110.06884v1
- Date: Wed, 13 Oct 2021 17:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 13:42:26.048141
- Title: ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers
- Title(参考訳): conditionalqa: 条件付き回答を持つ複雑な読み理解データセット
- Authors: Haitian Sun, William W. Cohen, Ruslan Salakhutdinov
- Abstract要約: 条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
- 参考スコア(独自算出の注目度): 93.55268936974971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a Question Answering (QA) dataset that contains complex questions
with conditional answers, i.e. the answers are only applicable when certain
conditions apply. We call this dataset ConditionalQA. In addition to
conditional answers, the dataset also features: (1) long context documents with
information that is related in logically complex ways; (2) multi-hop questions
that require compositional logical reasoning; (3) a combination of extractive
questions, yes/no questions, questions with multiple answers, and
not-answerable questions; (4) questions asked without knowing the answers. We
show that ConditionalQA is challenging for many of the existing QA models,
especially in selecting answer conditions. We believe that this dataset will
motivate further research in answering complex questions over long documents.
Data and leaderboard are publicly available at
\url{https://github.com/haitian-sun/ConditionalQA}.
- Abstract(参考訳): 条件付き回答を伴う複雑な質問を含む質問応答(qa)データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
条件付き回答に加えて,(1)論理的に複雑な情報を持つ長いコンテキスト文書,(2)構成的論理的推論を必要とするマルチホップ質問,(3)抽出された質問,イエス/ノー質問,複数の回答を伴う質問,および未解決質問の組み合わせ,(4)回答を知らずに質問する質問,などが特徴である。
ConditionalQAは既存のQAモデルの多く、特に回答条件の選択において困難であることを示す。
このデータセットは、長いドキュメントに関する複雑な質問に答えるためのさらなる研究の動機になると考えています。
data と leaderboard は \url{https://github.com/haitian-sun/conditionalqa} で公開されている。
関連論文リスト
- Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Reasoning over Logically Interacted Conditions for Question Answering [113.9231035680578]
我々は、論理的に相互作用する条件のリストによって答えが制約される、より困難なタスクについて研究する。
本稿では,この難解な推論タスクのための新しいモデルTReasonerを提案する。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T16:41:39Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Challenges in Information-Seeking QA: Unanswerable Questions and
Paragraph Retrieval [46.3246135936476]
情報検索クエリの応答がより難しい理由と,その原因を解析する。
制御実験の結果,2つのヘッドルーム – 段落選択と応答可能性予測 – が示唆された。
私たちは6つの言語で800の未解決例を手動で注釈付けします。
論文 参考訳(メタデータ) (2020-10-22T17:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。