論文の概要: Adapting Pre-trained Generative Models for Extractive Question Answering
- arxiv url: http://arxiv.org/abs/2311.02961v1
- Date: Mon, 6 Nov 2023 09:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:01:28.344991
- Title: Adapting Pre-trained Generative Models for Extractive Question Answering
- Title(参考訳): 抽出質問応答に対する事前学習生成モデルの適用
- Authors: Prabir Mallick and Tapas Nayak and Indrajit Bhattacharya
- Abstract要約: 本稿では、事前学習された生成モデルのパワーを用いて、抽出されたQAタスクに対処する新しいアプローチを提案する。
本稿では,既存の最先端モデルと比較して,提案手法の優れた性能を示す。
- 参考スコア(独自算出の注目度): 4.993041970406846
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Pre-trained Generative models such as BART, T5, etc. have gained prominence
as a preferred method for text generation in various natural language
processing tasks, including abstractive long-form question answering (QA) and
summarization. However, the potential of generative models in extractive QA
tasks, where discriminative models are commonly employed, remains largely
unexplored. Discriminative models often encounter challenges associated with
label sparsity, particularly when only a small portion of the context contains
the answer. The challenge is more pronounced for multi-span answers. In this
work, we introduce a novel approach that uses the power of pre-trained
generative models to address extractive QA tasks by generating indexes
corresponding to context tokens or sentences that form part of the answer.
Through comprehensive evaluations on multiple extractive QA datasets, including
MultiSpanQA, BioASQ, MASHQA, and WikiQA, we demonstrate the superior
performance of our proposed approach compared to existing state-of-the-art
models.
- Abstract(参考訳): BARTやT5といった事前訓練された生成モデルは、抽象的長文質問応答(QA)や要約など、様々な自然言語処理タスクにおいてテキスト生成の好適な方法として注目されている。
しかしながら、識別モデルが一般的に用いられる抽出qaタスクにおける生成モデルの可能性はほとんど未解明である。
識別モデルはしばしばラベルスパーシティに関連する問題に遭遇し、特に文脈のごく一部だけが答えを含んでいる場合である。
課題は、マルチスパン回答に対してより顕著である。
本研究では,事前学習した生成モデルの力を利用して,文脈トークンや文に対応するインデックスを生成することで,抽出されたQA課題に対処する手法を提案する。
我々は,MultiSpanQA,BioASQ,MASHQA,WikiQAを含む複数の抽出QAデータセットの総合的な評価を通じて,既存の最先端モデルと比較して提案手法の優れた性能を示す。
関連論文リスト
- GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Jaeger: A Concatenation-Based Multi-Transformer VQA Model [0.13654846342364307]
文書に基づく視覚質問応答は,言語感覚の曖昧さと細粒度マルチモーダル検索の間に難しい課題を生じさせる。
本稿では,結合型マルチトランスVQAモデルであるJaegarを提案する。
我々のアプローチは、結合によってこれらのモデルの性能を増幅する可能性がある。
論文 参考訳(メタデータ) (2023-10-11T00:14:40Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Multimodal Prompt Retrieval for Generative Visual Question Answering [9.973591610073006]
本稿では、検索したプロンプトとマルチモーダル機能を統合して、自由テキストで回答を生成するマルチモーダルプロンプト検索(MPR)によって強化された新しい生成モデルを提案する。
医療用VQAタスクの実験では、MPRはドメイン適応の設定において、最大30%の精度で検索不能なタスクを上回ります。
論文 参考訳(メタデータ) (2023-06-30T14:06:13Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。