論文の概要: What Would it Take to get Biomedical QA Systems into Practice?
- arxiv url: http://arxiv.org/abs/2109.10415v1
- Date: Tue, 21 Sep 2021 19:39:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:59:33.376922
- Title: What Would it Take to get Biomedical QA Systems into Practice?
- Title(参考訳): バイオメディカルQAシステムを実践するには何が必要か?
- Authors: Gregory Kell, Iain J. Marshall, Byron C. Wallace, Andre Jaun
- Abstract要約: 医療質問応答システム(QA)は、診療医が要求に応じて治療や診断について不確実性に答える可能性を秘めている。
NLPコミュニティによる一般QAの進歩にもかかわらず、医療QAシステムはまだ臨床環境では広く使われていない。
- 参考スコア(独自算出の注目度): 21.339520766920092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical question answering (QA) systems have the potential to answer
clinicians uncertainties about treatment and diagnosis on demand, informed by
the latest evidence. However, despite the significant progress in general QA
made by the NLP community, medical QA systems are still not widely used in
clinical environments. One likely reason for this is that clinicians may not
readily trust QA system outputs, in part because transparency, trustworthiness,
and provenance have not been key considerations in the design of such models.
In this paper we discuss a set of criteria that, if met, we argue would likely
increase the utility of biomedical QA systems, which may in turn lead to
adoption of such systems in practice. We assess existing models, tasks, and
datasets with respect to these criteria, highlighting shortcomings of
previously proposed approaches and pointing toward what might be more usable QA
systems.
- Abstract(参考訳): 医療質問応答システム(QA)は、臨床医が需要に対する治療や診断について不確実性に答える可能性を秘めている。
しかし、NLPコミュニティによる一般QAの進歩にもかかわらず、医療QAシステムはまだ臨床環境では広く使われていない。
この理由の1つとして、臨床医がQAシステムのアウトプットを信頼できないことがあることが挙げられる。
本稿では,もし満たせば,生体医学的qaシステムの有用性が高まる可能性があり,それが実際にこのようなシステムの採用につながる可能性がある,という一連の基準について論じる。
これらの基準に関して既存のモデル、タスク、データセットを評価し、これまで提案されていたアプローチの欠点を強調し、より有用なQAシステムを指す。
関連論文リスト
- Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - RealMedQA: A pilot biomedical question answering dataset containing realistic clinical questions [3.182594503527438]
本稿では,人間とLLMが生み出す現実的な臨床質問のデータセットであるRealMedQAを紹介する。
LLMは「理想的な」QAペアを生成するのに、よりコスト効率が高いことを示す。
論文 参考訳(メタデータ) (2024-08-16T09:32:43Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Question answering systems for health professionals at the point of care
-- a systematic review [2.446313557261822]
質問応答システム(QA)は、医療専門家に最新の最も関係のある証拠を提供することで、医療の質を向上させる可能性がある。
この体系的なレビューは、現在の医療QAシステムを特徴づけ、医療への適合性を評価し、改善の領域を特定することを目的としている。
論文 参考訳(メタデータ) (2024-01-24T13:47:39Z) - A Joint-Reasoning based Disease Q&A System [6.117758142183177]
医療質問応答(QA)アシスタントは、複数のソースから情報を合成することで、レイユーザーの健康関連クエリに応答する。
彼らは、誤った情報、情報過負荷、医療言語の複雑さの問題を緩和するための重要なツールとして機能する。
論文 参考訳(メタデータ) (2024-01-06T09:55:22Z) - QADYNAMICS: Training Dynamics-Driven Synthetic QA Diagnostic for
Zero-Shot Commonsense Question Answering [48.25449258017601]
State-of-the-artはCommonSense Knowledge Basesから構築されたQAペア上での微調整言語モデルにアプローチする。
本稿では,QA診断と改善のためのトレーニング動的フレームワークQADYNAMICSを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:27:34Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - Evaluation of Question Answering Systems: Complexity of judging a
natural language [3.4771957347698583]
質問応答システム(QA)は、自然言語処理(NLP)において最も重要かつ急速に発展している研究課題の一つである。
本調査では,QAの枠組み,QAパラダイム,ベンチマークデータセット,およびQAシステムの定量的評価のための評価手法の体系的概要について述べる。
論文 参考訳(メタデータ) (2022-09-10T12:29:04Z) - NoiseQA: Challenge Set Evaluation for User-Centric Question Answering [68.67783808426292]
応答エンジンに先立つパイプライン内のコンポーネントが,多種多様なエラーの原因を発生させることができることを示す。
我々は、QAシステムが効果的にデプロイされる前に、進歩の余地がかなりあると結論付けている。
論文 参考訳(メタデータ) (2021-02-16T18:35:29Z) - Biomedical Question Answering: A Comprehensive Review [19.38459023509541]
Question Answering (QA) は自然言語処理(NLP)のベンチマークであり、関連する文書、画像、知識ベース、質問-回答ペアを用いてモデルが与えられた質問に対する回答を予測する。
バイオメディシンのような特定のドメインでは、QAシステムは実際の環境では使われない。
バイオメディカルQA(BQA)は、新しいQAタスクとして、革新的なアプリケーションが複雑なバイオメディカル知識を効果的に知覚し、アクセスし、理解することを可能にする。
論文 参考訳(メタデータ) (2021-02-10T06:16:35Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。