論文の概要: RxWhyQA: a clinical question-answering dataset with the challenge of
multi-answer questions
- arxiv url: http://arxiv.org/abs/2201.02517v1
- Date: Fri, 7 Jan 2022 15:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 14:48:53.342854
- Title: RxWhyQA: a clinical question-answering dataset with the challenge of
multi-answer questions
- Title(参考訳): RxWhyQA : 複数質問への挑戦を伴う臨床質問応答データセット
- Authors: Sungrim Moon, Huan He, Hongfang Liu, Jungwei W. Fan
- Abstract要約: 我々は,複数問合せを処理可能な臨床問合せシステムの開発と評価のためのデータセットを作成する。
1-to-0と1-to-Nの薬物親和関係は、解答不能および複数解答項目を形成した。
- 参考スコア(独自算出の注目度): 4.017119245460155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objectives Create a dataset for the development and evaluation of clinical
question-answering (QA) systems that can handle multi-answer questions.
Materials and Methods We leveraged the annotated relations from the 2018
National NLP Clinical Challenges (n2c2) corpus to generate a QA dataset. The
1-to-0 and 1-to-N drug-reason relations formed the unanswerable and
multi-answer entries, which represent challenging scenarios lacking in the
existing clinical QA datasets. Results The result RxWhyQA dataset contains
91,440 QA entries, of which half are unanswerable, and 21% (n=19,269) of the
answerable ones require multiple answers. The dataset conforms to the
community-vetted Stanford Question Answering Dataset (SQuAD) format. Discussion
The RxWhyQA is useful for comparing different systems that need to handle the
zero- and multi-answer challenges, demanding dual mitigation of both false
positive and false negative answers. Conclusion We created and shared a
clinical QA dataset with a focus on multi-answer questions to represent
real-world scenarios.
- Abstract(参考訳): 目的 複数質問を処理できる臨床質問応答(QA)システムの開発と評価のためのデータセットを作成する。
資料と方法 2018年全国NLP臨床チャレンジ(n2c2)コーパスの注釈付き関係を利用してQAデータセットを生成した。
1-to-0と1-to-Nの薬物関係は、既存のQAデータセットに欠けている難解なシナリオを表わす、解決不可能かつ複数問合せのエントリを形成した。
結果 RxWhyQAデータセットには91,440のQAエントリが含まれており、半数は解決不可能であり、21%(n=19,269)は複数の回答を必要とする。
データセットは、squad(community-vetted stanford question answering dataset)形式に準拠している。
議論 RxWhyQAは、ゼロとマルチの答えの問題に対処するために必要な異なるシステムを比較するのに役立ち、偽陽性と偽陰性の両方の回答の二重緩和を要求する。
結論 実世界のシナリオを表現するために,複数の質問に焦点をあてて臨床QAデータセットを作成し,共有した。
関連論文リスト
- A Dataset of Open-Domain Question Answering with Multiple-Span Answers [11.291635421662338]
マルチスパン回答抽出(Multi-span answer extract)は、マルチスパン質問応答(MSQA)のタスクとしても知られ、現実世界のアプリケーションにとって重要な課題である。
中国語ではMSQAベンチマークが公開されていない。
CLEANは、中国の総合的なマルチスパン質問応答データセットである。
論文 参考訳(メタデータ) (2024-02-15T13:03:57Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Learning to Ask Like a Physician [24.15961995052862]
2,000以上の質問からなる新たな質問データセットDiSCQについて紹介する。
質問は、100以上のMIMIC-III放電サマリーの医療専門家によって生成される。
我々は、このデータセットを分析し、医療専門家が求めている情報のタイプを特徴付ける。
論文 参考訳(メタデータ) (2022-06-06T15:50:54Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Determining Question-Answer Plausibility in Crowdsourced Datasets Using
Multi-Task Learning [10.742152224470317]
本稿では,品質分析とデータクリーニングのための新しいタスクを提案する。
ソーシャルメディア利用者からのマシンやユーザ生成の質問とクラウドソースによる回答が与えられた場合、質問と回答が有効かどうかを判断する。
クリーンで使いやすい質問応答データセットを生成するためのモデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-11-10T04:11:44Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。