論文の概要: Sequence Tagging for Biomedical Extractive Question Answering
- arxiv url: http://arxiv.org/abs/2104.07535v1
- Date: Thu, 15 Apr 2021 15:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:00:52.890059
- Title: Sequence Tagging for Biomedical Extractive Question Answering
- Title(参考訳): バイオメディカル抽出質問応答のためのシーケンスタギング
- Authors: Wonjin Yoon, Richard Jackson, Jaewoo Kang, Aron Lagerberg
- Abstract要約: 一般領域とバイオメディカル領域における質問分布の差異について検討する。
生命医学的な質問は、ファクトイド型回答(シングル回答)よりもリスト型回答(複数回答)を必要とすることが多い。
我々のアプローチは、トレーニングデータから質問に対する回答の数を決定することを学ぶことができる。
- 参考スコア(独自算出の注目度): 12.464143741310137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current studies in extractive question answering (EQA) have modeled
single-span extraction setting, where a single answer span is a label to
predict for a given question-passage pair. This setting is natural for general
domain EQA as the majority of the questions in the general domain can be
answered with a single span. Following general domain EQA models, current
biomedical EQA (BioEQA) models utilize single-span extraction setting with
post-processing steps. In this paper, we investigate the difference of the
question distribution across the general and biomedical domains and discover
biomedical questions are more likely to require list-type answers (multiple
answers) than factoid-type answers (single answer). In real-world use cases,
this emphasizes the need for Biomedical EQA models able to handle multiple
question types. Based on this preliminary study, we propose a multi-span
extraction setting, namely sequence tagging approach for BioEQA, which directly
tackles questions with a variable number of phrases as their answer. Our
approach can learn to decide the number of answers for a question from training
data. Our experimental result on the BioASQ 7b and 8b list-type questions
outperformed the best-performing existing models without requiring
post-processing steps.
- Abstract(参考訳): 抽出質問応答(EQA)の最近の研究は、与えられた問合せペアを予測するためのラベルを1つの解答に分割する単一スパン抽出設定をモデル化している。
この設定は一般領域 EQA にとって自然であり、一般領域の質問の大部分が単一のスパンで答えられる。
一般的なドメインEQAモデルに続いて、現在のバイオメディカルEQA(BioEQA)モデルは、シングルスパン抽出設定と後処理ステップを利用する。
本稿では, 一般領域と生物領域の質問分布の違いを調査し, バイオメディカルな質問は, ファクトイド型の回答よりもリスト型回答(複数回答)を必要とする可能性が高いことを明らかにする。
現実世界のユースケースでは、複数の質問タイプを扱うことができるバイオメディカルEQAモデルの必要性が強調される。
そこで本研究では,様々なフレーズを問答として直接解答する手法であるbioeqaのシーケンスタグ付け手法を提案する。
我々のアプローチは、トレーニングデータから質問に対する回答の数を決定することを学ぶことができる。
BioASQ 7b と 8b リスト型質問に対する実験結果は,処理後ステップを必要とせず,既存のモデルよりも優れていた。
関連論文リスト
- Embodied Question Answering via Multi-LLM Systems [55.581423861790945]
EQA(Embodied Question Answering)は,ユーザの質問に答える環境を探索するエージェントが関与する重要な問題である。
本研究では,複数の大規模言語モデル(LLM)をベースとしたエージェントが家庭環境に関する質問に独立して答えるマルチエージェントフレームワークとして,EQAを考察する。
論文 参考訳(メタデータ) (2024-06-16T12:46:40Z) - GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Adapting Pre-trained Generative Models for Extractive Question Answering [4.993041970406846]
本稿では、事前学習された生成モデルのパワーを用いて、抽出されたQAタスクに対処する新しいアプローチを提案する。
本稿では,既存の最先端モデルと比較して,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-11-06T09:01:02Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Activity report analysis with automatic single or multispan answer
extraction [0.21485350418225244]
我々は,質問内容や質問内容に応じて,単一回答と複数回答のペアによる新しいスマートホーム環境データセットを作成する。
実験の結果,提案手法はデータセット上での最先端QAモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-09T06:33:29Z) - BioTABQA: Instruction Learning for Biomedical Table Question Answering [19.66452178704578]
TQA(Table Question Answering)は重要な課題であるが、未調査の課題である。
TQAデータセットは、情報の提示に頻繁に使用される生物医学領域には存在しない。
BioTABQAは、モデルにテーブルからの質問に答える方法を教えるだけでなく、モデルが目に見えない質問にどのように一般化するかを評価するのにも使える。
論文 参考訳(メタデータ) (2022-07-06T03:40:10Z) - Mixture of Experts for Biomedical Question Answering [34.92691831878302]
そこで我々はMOEBQAと呼ばれるMixture-of-Expert (MoE)ベースの質問応答手法を提案する。
MoEBQAはスパースルーティングによって異なるタイプの質問の計算を分離する。
実検に基づいて構築した3つのバイオメディカル質問応答(BQA)データセットのMOEBQAを評価する。
論文 参考訳(メタデータ) (2022-04-15T14:11:40Z) - MixQG: Neural Question Generation with Mixed Answer Types [54.23205265351248]
このギャップを埋めるために、ニューラル質問生成器MixQGを提案する。
yes/no, multiple-choice, extractive, abstractive answerなど,9つの質問応答データセットと多様な回答タイプを組み合わせる。
私たちのモデルは、目に見えない領域と見えない領域の両方で、既存の作業より優れています。
論文 参考訳(メタデータ) (2021-10-15T16:03:40Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Biomedical Question Answering: A Comprehensive Review [19.38459023509541]
Question Answering (QA) は自然言語処理(NLP)のベンチマークであり、関連する文書、画像、知識ベース、質問-回答ペアを用いてモデルが与えられた質問に対する回答を予測する。
バイオメディシンのような特定のドメインでは、QAシステムは実際の環境では使われない。
バイオメディカルQA(BQA)は、新しいQAタスクとして、革新的なアプリケーションが複雑なバイオメディカル知識を効果的に知覚し、アクセスし、理解することを可能にする。
論文 参考訳(メタデータ) (2021-02-10T06:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。