論文の概要: Transferability of Natural Language Inference to Biomedical Question
Answering
- arxiv url: http://arxiv.org/abs/2007.00217v4
- Date: Wed, 17 Feb 2021 06:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:01:32.022010
- Title: Transferability of Natural Language Inference to Biomedical Question
Answering
- Title(参考訳): 自然言語推論の生体内質問応答への伝達性
- Authors: Minbyul Jeong, Mujeen Sung, Gangwoo Kim, Donghyeon Kim, Wonjin Yoon,
Jaehyo Yoo, Jaewoo Kang
- Abstract要約: 生物医学的質問応答(QA)への自然言語推論(NLI)の知識伝達にBioBERTを適用することに注力する。
NLIデータセットでトレーニングされたBioBERTは、Yes/No(+5.59%)、Factoid(+0.53%)、List type(+13.58%)でより良いパフォーマンスを得る。
第8回 BioASQ Challenge (Phase B) において, 良好に機能するシーケンシャルトランスファー学習法を提案する。
- 参考スコア(独自算出の注目度): 17.38537039378825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical question answering (QA) is a challenging task due to the scarcity
of data and the requirement of domain expertise. Pre-trained language models
have been used to address these issues. Recently, learning relationships
between sentence pairs has been proved to improve performance in general QA. In
this paper, we focus on applying BioBERT to transfer the knowledge of natural
language inference (NLI) to biomedical QA. We observe that BioBERT trained on
the NLI dataset obtains better performance on Yes/No (+5.59%), Factoid
(+0.53%), List type (+13.58%) questions compared to performance obtained in a
previous challenge (BioASQ 7B Phase B). We present a sequential transfer
learning method that significantly performed well in the 8th BioASQ Challenge
(Phase B). In sequential transfer learning, the order in which tasks are
fine-tuned is important. We measure an unanswerable rate of the extractive QA
setting when the formats of factoid and list type questions are converted to
the format of the Stanford Question Answering Dataset (SQuAD).
- Abstract(参考訳): バイオメディカルな質問応答(QA)は、データの不足とドメインの専門知識の要求のために難しい課題である。
これらの問題に対処するために、事前訓練された言語モデルが使用されている。
近年,文ペア間の学習関係は一般のQAの性能向上に寄与することが証明されている。
本稿では,生物医学的QAに自然言語推論(NLI)の知識を伝達するためにBioBERTを適用することに焦点を当てる。
我々は,NLIデータセットでトレーニングしたBioBERTが,Yes/No (+5.59%), Factoid (+0.53%), List type (+13.58%) の質問に対して,以前の課題 (BioASQ 7B Phase B) と比較して,より優れたパフォーマンスが得られることを観察した。
第8回BioASQ Challenge (Phase B) において, 高い成績を収めたシーケンシャルトランスファー学習法を提案する。
逐次転送学習では,タスクを微調整する順序が重要である。
ファクトイドおよびリスト型質問の形式がSQuAD(Stanford Question Answering Dataset)の形式に変換された場合、抽出されたQA設定の不可解な率を測定する。
関連論文リスト
- ScholarChemQA: Unveiling the Power of Language Models in Chemical Research Question Answering [54.80411755871931]
質問回答(QA)は、言語モデルの推論と知識の深さを効果的に評価する。
化学QAは、複雑な化学情報を理解しやすい形式に効果的に翻訳することで、教育と研究の両方において重要な役割を担っている。
このデータセットは、不均衡なデータ分散や、潜在的に有用である可能性のあるかなりの量の未ラベルデータを含む、典型的な現実世界の課題を反映している。
収集したデータを完全に活用して,化学的な問題に効果的に答えるQAMatchモデルを提案する。
論文 参考訳(メタデータ) (2024-07-24T01:46:55Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Test-Time Self-Adaptive Small Language Models for Question Answering [63.91013329169796]
ラベルのないテストデータのみを用いて、より小さな自己適応型LMの能力を示し、検討する。
提案した自己適応戦略は,ベンチマークQAデータセットの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-10-20T06:49:32Z) - Query-focused Extractive Summarisation for Biomedical and COVID-19
Complex Question Answering [0.0]
本稿では,最近の2つのBioASQ Synergy Tasksへのマッコーリー大学の参加について述べる。
本稿では, 問合せに焦点を絞った抽出要約手法を適用し, 生体医学的問題に対する複雑な回答を生成する。
The Synergy task, we selected the candidate sentences following two phases: document search and snippet search。
そこで本研究では,BioASQ10bトレーニングデータの下半期にトレーニングを行った結果の改善について検討した。
論文 参考訳(メタデータ) (2022-09-05T07:56:44Z) - Query-Focused Extractive Summarisation for Finding Ideal Answers to
Biomedical and COVID-19 Questions [7.6997148655751895]
マカリー大学はBioASQ Synergy TaskとBioASQ9b Phase Bに参加した。
我々は,BioASQ8bのトレーニングデータセットを用いて,問合せに着目した要約システムを用いた。
システムによって回収された文書やスニペットの質が低かったことを踏まえ,回答の質は適度に良好であった。
論文 参考訳(メタデータ) (2021-08-27T09:19:42Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and
Textual Content in Finance [71.76018597965378]
TAT-QAと呼ばれるタブラデータとテクスチャデータの両方を含む新しい大規模な質問応答データセットを構築します。
本稿では,テーブルとテキストの両方を推論可能な新しいQAモデルであるTAGOPを提案する。
論文 参考訳(メタデータ) (2021-05-17T06:12:06Z) - Sequence Tagging for Biomedical Extractive Question Answering [12.464143741310137]
一般領域とバイオメディカル領域における質問分布の差異について検討する。
生命医学的な質問は、ファクトイド型回答(シングル回答)よりもリスト型回答(複数回答)を必要とすることが多い。
我々のアプローチは、トレーニングデータから質問に対する回答の数を決定することを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-15T15:42:34Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - Unsupervised Pre-training for Biomedical Question Answering [32.525495687236194]
バイオメディカル・エンティティの文脈における推論を目的としたラベルなしデータから,新たな事前学習タスクを導入する。
実験の結果,提案した事前学習課題におけるBioBERTの事前学習が性能を著しく向上させ,第7回BioASQタスク7b-Phase Bの課題よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T21:07:51Z) - UNCC Biomedical Semantic Question Answering Systems. BioASQ: Task-7B,
Phase-B [1.976652238476722]
本稿では,タスク7b,フェーズB,実行解答タスクについて述べる。
これらの質問回答(QA)タスクには、Factoid、Yes/No、List Type Questioningなどが含まれる。
本システムは文脈単語埋め込みモデルに基づく。
論文 参考訳(メタデータ) (2020-02-05T20:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。