論文の概要: MemSum-DQA: Adapting An Efficient Long Document Extractive Summarizer
for Document Question Answering
- arxiv url: http://arxiv.org/abs/2310.06436v1
- Date: Tue, 10 Oct 2023 09:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 17:58:34.593345
- Title: MemSum-DQA: Adapting An Efficient Long Document Extractive Summarizer
for Document Question Answering
- Title(参考訳): MemSum-DQA: 文書質問回答のための効率的な長文抽出要約器の適応
- Authors: Nianlong Gu, Yingqiang Gao, Richard H. R. Hahnloser
- Abstract要約: 文書質問応答(DQA)のための効率的なシステムであるMemSum-DQAを紹介する。
MemSum-DQAは、解析された文書に与えられた質問タイプと質問タイプをプレフィックスすることにより、文書からテキストブロックを選択的に抽出する。
完全文書回答タスクでは、従来の最先端のベースラインよりも正確なマッチング精度が9%向上する。
- 参考スコア(独自算出の注目度): 10.159501412046508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce MemSum-DQA, an efficient system for document question answering
(DQA) that leverages MemSum, a long document extractive summarizer. By
prefixing each text block in the parsed document with the provided question and
question type, MemSum-DQA selectively extracts text blocks as answers from
documents. On full-document answering tasks, this approach yields a 9%
improvement in exact match accuracy over prior state-of-the-art baselines.
Notably, MemSum-DQA excels in addressing questions related to
child-relationship understanding, underscoring the potential of extractive
summarization techniques for DQA tasks.
- Abstract(参考訳): 本稿では,長い文書抽出要約器であるMemSumを活用する,文書質問応答(DQA)の効率的なシステムであるMemSum-DQAを紹介する。
MemSum-DQAは、解析された文書に与えられた質問タイプと質問タイプをプレフィックスすることにより、文書からテキストブロックを選択的に抽出する。
完全文書回答タスクでは、従来の最先端のベースラインよりも正確なマッチング精度が9%向上する。
特に、MemSum-DQAは、DQAタスクの抽出的要約技術の可能性について、児童関係理解に関連する問題に対処する上で優れている。
関連論文リスト
- Detect, Retrieve, Comprehend: A Flexible Framework for Zero-Shot
Document-Level Question Answering [6.224211330728391]
研究者は貴重な技術知識を含む何千もの学術文書を作成した。
文書レベルの質問応答(QA)は、人間の提案する質問を適応して多様な知識を抽出できる柔軟なフレームワークを提供する。
本稿では,PDFからテキストを抽出する3段階の文書QAアプローチ,抽出したテキストからエビデンスを抽出して適切な文脈を形成する方法,文脈から知識を抽出して高品質な回答を返すためのQAを提案する。
論文 参考訳(メタデータ) (2022-10-04T23:33:52Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - New Methods & Metrics for LFQA tasks [0.0]
長い形式の質問応答タスクでは、クエリに関連する文書を検索し、それを使用して段落長の回答を作成する必要がある。
この作業では、トレイン/バリデーション/テストのデータセットのオーバーラップ、自動メトリクスの欠如、検索したドキュメントに“接地”されていない回答の生成に対処する。
論文 参考訳(メタデータ) (2021-12-26T18:38:05Z) - End-to-End Multihop Retrieval for Compositional Question Answering over
Long Documents [93.55268936974971]
本稿では,長い文書の合成問題に答えるマルチホップ検索手法であるDocHopperを提案する。
各ステップでDocHopperは文書から段落や文を検索し、検索した結果とクエリを混合し、次のステップでクエリを更新する。
文書構造を活用すれば、長い文書の質問応答や検索性能を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-06-01T03:13:35Z) - AnswerQuest: A System for Generating Question-Answer Items from
Multi-Paragraph Documents [1.0896567381206712]
本稿では,質問応答タスク(QA)と質問生成タスク(QG)を統合し,複数のパラグラフ文書の内容を伝えるQ&A項目を生成するシステムについてデモする。
両タスクの改善をもたらすQAとQGに関するいくつかの実験を報告し、テキストのQ&A項目のリストを作成するための相互作用を評価します。
論文 参考訳(メタデータ) (2021-03-05T17:36:04Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z) - Knowledge-Aided Open-Domain Question Answering [58.712857964048446]
本稿では,知識支援型オープンドメインQA(KAQA)手法を提案する。
文書検索の際、質問と他の文書との関係を考慮し、候補文書を採点する。
回答の再ランク付けの間、候補の回答は、自身のコンテキストだけでなく、他の文書からのヒントを使って再ランクされる。
論文 参考訳(メタデータ) (2020-06-09T13:28:57Z) - DC-BERT: Decoupling Question and Document for Efficient Contextual
Encoding [90.85913515409275]
近年のオープンドメイン質問応答は,BERT などの事前学習言語モデルを用いて顕著な性能向上を実現している。
本稿では,2つのBERTモデルを持つコンテキストエンコーディングフレームワークであるDC-BERTと,すべての文書を事前エンコードし,それらのエンコーディングをキャッシュするオフラインBERTを提案する。
SQuADオープンとNatural Questionsオープンデータセットでは、DC-BERTは文書検索の10倍のスピードアップを実現し、QAパフォーマンスのほとんど(約98%)を維持している。
論文 参考訳(メタデータ) (2020-02-28T08:18:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。