論文の概要: Top K Relevant Passage Retrieval for Biomedical Question Answering
- arxiv url: http://arxiv.org/abs/2308.04028v1
- Date: Tue, 8 Aug 2023 04:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 14:04:25.738518
- Title: Top K Relevant Passage Retrieval for Biomedical Question Answering
- Title(参考訳): バイオメディカル質問応答のためのトップK関連パス検索
- Authors: Shashank Gupta
- Abstract要約: 質問応答は、大量の文書を用いて事実のない質問に答えるタスクである。
既存のDense Passage Retrievalモデルは、2018年12月20日からWikipediaでトレーニングされている。
本研究では, バイオメディカル領域における既存のDPRフレームワークについて検討し, 医療上の疑問に答える信頼できる情報源である Pubmed の記事から回答を得た。
- 参考スコア(独自算出の注目度): 1.0636004442689055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question answering is a task that answers factoid questions using a large
collection of documents. It aims to provide precise answers in response to the
user's questions in natural language. Question answering relies on efficient
passage retrieval to select candidate contexts, where traditional sparse vector
space models, such as TF-IDF or BM25, are the de facto method. On the web,
there is no single article that could provide all the possible answers
available on the internet to the question of the problem asked by the user. The
existing Dense Passage Retrieval model has been trained on Wikipedia dump from
Dec. 20, 2018, as the source documents for answering questions. Question
answering (QA) has made big strides with several open-domain and machine
comprehension systems built using large-scale annotated datasets. However, in
the clinical domain, this problem remains relatively unexplored. According to
multiple surveys, Biomedical Questions cannot be answered correctly from
Wikipedia Articles. In this work, we work on the existing DPR framework for the
biomedical domain and retrieve answers from the Pubmed articles which is a
reliable source to answer medical questions. When evaluated on a BioASQ QA
dataset, our fine-tuned dense retriever results in a 0.81 F1 score.
- Abstract(参考訳): 質問応答は、大量の文書を用いて事実のない質問に答えるタスクである。
自然言語によるユーザの質問に対して,正確な回答を提供することを目標としている。
質問応答は、TF-IDFやBM25のような伝統的なスパースベクトル空間モデルが事実上の方法である、選択された候補コンテキストに対する効率的な経路探索に依存する。
ウェブ上では、ユーザーが質問した問題に対して、インターネットで利用可能なすべての回答を提供することのできる記事は1つもない。
既存の密集した通路の検索モデルは、2018年12月20日からwikipediaのダンプで、質問に答えるための資料として訓練されている。
質問応答(QA)は、大規模アノテートデータセットを使用して構築されたいくつかのオープンドメインとマシン理解システムで大きく進歩している。
しかし、臨床領域では、この問題は比較的未解明のままである。
複数の調査によると、バイオメディカル質問はWikipediaの記事から正しく答えられない。
本研究では,既存の生体医学領域のためのdprフレームワークを開発し,医学的質問に答える信頼できる情報源であるpubmedアーティクルから回答を取り出す。
BioASQ QAデータセットで評価すると、細調整された高密度検索器は0.81F1スコアとなる。
関連論文リスト
- Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Contributions to the Improvement of Question Answering Systems in the
Biomedical Domain [0.951828574518325]
この論文は、生物医学領域における質問応答(QA)の枠組みに該当する。
バイオメディカル領域におけるQAの性能向上のための4つのコントリビューションを提案する。
我々はSemBioNLQAと呼ばれる完全に自動化されたセマンティックバイオメディカルQAシステムを開発した。
論文 参考訳(メタデータ) (2023-07-25T16:31:20Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Sequence Tagging for Biomedical Extractive Question Answering [12.464143741310137]
一般領域とバイオメディカル領域における質問分布の差異について検討する。
生命医学的な質問は、ファクトイド型回答(シングル回答)よりもリスト型回答(複数回答)を必要とすることが多い。
我々のアプローチは、トレーニングデータから質問に対する回答の数を決定することを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-15T15:42:34Z) - Where's the Question? A Multi-channel Deep Convolutional Neural Network
for Question Identification in Textual Data [83.89578557287658]
本稿では,実際の質問を分離する目的で,新しい多チャンネル深層畳み込みニューラルネットワークアーキテクチャであるQuest-CNNを提案する。
提案するニューラルネットワークと他のディープニューラルネットワークの総合的な性能比較分析を行った。
提案したQuest-CNNは、透析ケア設定におけるデータエントリレビュー対話のデータセットと一般的なドメインデータセットの両方において、最高のF1スコアを達成した。
論文 参考訳(メタデータ) (2020-10-15T15:11:22Z) - Effective Transfer Learning for Identifying Similar Questions: Matching
User Questions to COVID-19 FAQs [5.512295869673147]
医療質問応答対にニューラルネットワークを事前学習する2つの微調整アプローチが,医療質問類似性を決定するのに有用な中間課題であることを示す。
また、トレーニングされたモデルを使用して、ユーザの質問と新型コロナウイルス関連のFAQをマッチングする、現在稼働中のシステムについても説明する。
論文 参考訳(メタデータ) (2020-08-04T18:20:04Z) - A Qualitative Evaluation of Language Models on Automatic
Question-Answering for COVID-19 [4.676651062800037]
新型コロナウイルスは740万人以上の感染者と41万8000人以上の死者を出した。
オンラインコミュニティ、フォーラム、ソーシャルメディアは、関連する質問や回答を検索する潜在的な場所を提供する。
本稿では,新型コロナウイルスに関する質問に自動回答する言語モデルを適用し,生成した回答を質的に評価する。
論文 参考訳(メタデータ) (2020-06-19T05:13:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。