論文の概要: Transformer-Based Models for Question Answering on COVID19
- arxiv url: http://arxiv.org/abs/2101.11432v1
- Date: Sat, 16 Jan 2021 23:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 04:37:12.211728
- Title: Transformer-Based Models for Question Answering on COVID19
- Title(参考訳): トランスフォーマーを用いたCOVID-19質問応答モデル
- Authors: Hillary Ngai, Yoona Park, John Chen and Mahboobeh Parsapoor (Mah
Parsa)
- Abstract要約: BERT, ALBERT, T5モデルを用いた3つのトランス型質問応答システムを提案する。
BERTベースのQAシステムは最高F1スコア(26.32)、ALBERTベースのQAシステムは最高エクサクティマッチ(13.04)を達成した。
- 参考スコア(独自算出の注目度): 4.631723879329972
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In response to the Kaggle's COVID-19 Open Research Dataset (CORD-19)
challenge, we have proposed three transformer-based question-answering systems
using BERT, ALBERT, and T5 models. Since the CORD-19 dataset is unlabeled, we
have evaluated the question-answering models' performance on two labeled
questions answers datasets \textemdash CovidQA and CovidGQA. The BERT-based QA
system achieved the highest F1 score (26.32), while the ALBERT-based QA system
achieved the highest Exact Match (13.04). However, numerous challenges are
associated with developing high-performance question-answering systems for the
ongoing COVID-19 pandemic and future pandemics. At the end of this paper, we
discuss these challenges and suggest potential solutions to address them.
- Abstract(参考訳): Kaggleのオープンリサーチデータセット(CORD-19)の課題に対して、BERT、ALBERT、T5モデルを使用したトランスフォーマーベースの質問応答システムを提案しました。
CORD-19データセットはラベル付けされていないため、2つのラベル付き質問に対して質問応答モデルのパフォーマンスを評価した。
BERTベースのQAシステムはF1スコア(26.32点)、ALBERTベースのQAシステムはExact Match(13.04点)である。
しかし、新型コロナウイルスのパンデミックや将来のパンデミックに対する高性能な質問応答システムの開発には、多くの課題がある。
本稿の最後に、これらの課題について議論し、対処する潜在的な解決策を提案する。
関連論文リスト
- UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - Answer Generation for Questions With Multiple Information Sources in
E-Commerce [0.0]
本稿では,関連性やあいまいさの予測を別々に行うことで,上記ソースに存在する豊富な情報を利用する新しいパイプライン(MSQAP)を提案する。
これは、仕様、類似の質問、データレビューなど、さまざまなソースに存在する情報を組み合わせた自然言語の回答を自動的に生成する、eコマース領域における最初の作業である。
論文 参考訳(メタデータ) (2021-11-27T23:19:49Z) - COVIDRead: A Large-scale Question Answering Dataset on COVID-19 [41.23094507923245]
非常に重要なリソースであるCOVIDReadは、SQuAD(Stanford Question Answering dataset)に似たデータセットで、100万以上の質問と回答のペアです。
これは、この非常に珍しい病気に関する一般大衆の問い合わせから、編集者や雑誌編集者による記事管理まで、多くの目的に役立てることができる貴重なリソースである。
いくつかのエンドツーエンドニューラルネットワークベースのベースラインモデルを構築し、最低F1が32.03%、最高F1が37.19%に達する。
論文 参考訳(メタデータ) (2021-10-05T07:38:06Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Will this Question be Answered? Question Filtering via Answer Model
Distillation for Efficient Question Answering [99.66470885217623]
本稿では,質問回答システム(QA)の効率向上に向けた新しいアプローチを提案する。
最新のQAシステムの回答信頼性スコアは、入力された質問テキストのみを使用してモデルによってうまく近似することができる。
論文 参考訳(メタデータ) (2021-09-14T23:07:49Z) - A Clarifying Question Selection System from NTES_ALONG in Convai3
Challenge [8.656503175492375]
本稿では,検索指向会話型AI (SCAI) EMNLPワークショップにおけるClariQチャレンジへのNetEase Game AI Labチームの参加について述べる。
この課題は、解明された質問を理解し、生成できる完全な会話情報検索システムを求めるものである。
本稿では,回答理解,質問のリコール,質問ランキングの明確化からなる質問選択システムを提案する。
論文 参考訳(メタデータ) (2020-10-27T11:22:53Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - What Are People Asking About COVID-19? A Question Classification Dataset [56.609360198598914]
13のソースから1,690件のCOVID-19に関する質問の集合であるCOVID-Qを提示する。
われわれのデータセットで最も一般的な質問は、COVID-19の感染、予防、社会的影響についてだった。
複数のソースに現れた多くの質問は、CDCやFDAのような信頼できる組織のFAQのウェブサイトでは答えられませんでした。
論文 参考訳(メタデータ) (2020-05-26T05:41:58Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。