論文の概要: Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections
- arxiv url: http://arxiv.org/abs/2111.00701v1
- Date: Mon, 1 Nov 2021 04:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 02:41:12.016525
- Title: Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections
- Title(参考訳): Discourse Comprehension: 文接続を表現するための質問応答フレームワーク
- Authors: Wei-Jen Ko, Cutter Dalton, Mark Simmons, Eliza Fisher, Greg Durrett,
Junyi Jessy Li
- Abstract要約: 談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
- 参考スコア(独自算出の注目度): 35.005593397252746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there has been substantial progress in text comprehension through
simple factoid question answering, more holistic comprehension of a discourse
still presents a major challenge. Someone critically reflecting on a text as
they read it will pose curiosity-driven, often open-ended questions, which
reflect deep understanding of the content and require complex reasoning to
answer. A key challenge in building and evaluating models for this type of
discourse comprehension is the lack of annotated data, especially since finding
answers to such questions (which may not be answered at all) requires high
cognitive load for annotators over long documents. This paper presents a novel
paradigm that enables scalable data collection targeting the comprehension of
news documents, viewing these questions through the lens of discourse. The
resulting corpus, DCQA (Discourse Comprehension by Question Answering),
consists of 22,430 question-answer pairs across 607 English documents. DCQA
captures both discourse and semantic links between sentences in the form of
free-form, open-ended questions. On an evaluation set that we annotated on
questions from the INQUISITIVE dataset, we show that DCQA provides valuable
supervision for answering open-ended questions. We additionally design
pre-training methods utilizing existing question-answering resources, and use
synthetic data to accommodate unanswerable questions.
- Abstract(参考訳): 単純なファクトイドの質問応答を通じてテキスト理解が大幅に進歩してきたが、談話のより包括的な理解は依然として大きな課題である。
テキストを読みながら批判的に反省する人は、好奇心に駆られ、しばしば公然とした質問を提起し、内容の深い理解を反映し、答えるには複雑な推論を必要とする。
この種の談話理解のためのモデルを構築して評価する上での重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現するための新しいパラダイムを提案する。
得られたコーパスであるDCQA(Discourse Comprehension by Question Answering)は、607の英語文書からなる22,430の質問回答ペアで構成されている。
DCQAは、言論と文間のセマンティックリンクの両方を自由形式のオープンエンドの質問形式でキャプチャする。
INQUISITIVEデータセットからの質問に注釈を付けた評価セットでは、DCQAがオープンな質問に答えるための貴重な監視を提供することを示す。
さらに,既存の質問応答資源を活用した事前学習手法を設計,合成データを用いて不可解な質問に適応する。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Auto FAQ Generation [0.0]
本稿では,FAQ文書を生成するシステムを提案する。
既存のテキスト要約、テキストランクアルゴリズムによる文章ランキング、質問生成ツールを用いて、質問と回答の初期セットを作成します。
論文 参考訳(メタデータ) (2024-05-13T03:30:27Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Challenges in Information-Seeking QA: Unanswerable Questions and
Paragraph Retrieval [46.3246135936476]
情報検索クエリの応答がより難しい理由と,その原因を解析する。
制御実験の結果,2つのヘッドルーム – 段落選択と応答可能性予測 – が示唆された。
私たちは6つの言語で800の未解決例を手動で注釈付けします。
論文 参考訳(メタデータ) (2020-10-22T17:48:17Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。