論文の概要: Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence
- arxiv url: http://arxiv.org/abs/2310.01299v1
- Date: Mon, 2 Oct 2023 16:00:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 20:59:37.147787
- Title: Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence
- Title(参考訳): エビデンスに対する期待最大化推論による医学的質問応答における説明の生成
- Authors: Wei Sun, Mingxiao Li, Damien Sileo, Jesse Davis, and Marie-Francine
Moens
- Abstract要約: 本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
- 参考スコア(独自算出の注目度): 33.018873142559286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical Question Answering~(medical QA) systems play an essential role in
assisting healthcare workers in finding answers to their questions. However, it
is not sufficient to merely provide answers by medical QA systems because users
might want explanations, that is, more analytic statements in natural language
that describe the elements and context that support the answer. To do so, we
propose a novel approach for generating natural language explanations for
answers predicted by medical QA systems. As high-quality medical explanations
require additional medical knowledge, so that our system extract knowledge from
medical textbooks to enhance the quality of explanations during the explanation
generation process. Concretely, we designed an expectation-maximization
approach that makes inferences about the evidence found in these texts,
offering an efficient way to focus attention on lengthy evidence passages.
Experimental results, conducted on two datasets MQAE-diag and MQAE, demonstrate
the effectiveness of our framework for reasoning with textual evidence. Our
approach outperforms state-of-the-art models, achieving a significant
improvement of \textbf{6.86} and \textbf{9.43} percentage points on the Rouge-1
score; \textbf{8.23} and \textbf{7.82} percentage points on the Bleu-4 score on
the respective datasets.
- Abstract(参考訳): 医療質問回答〜(医療QA)システムは、医療従事者の質問に対する回答を見つける上で、重要な役割を果たす。
しかし、単に医療用qaシステムで答えを提供するだけでは十分ではない。なぜなら、ユーザーは答えをサポートする要素とコンテキストを記述する自然言語におけるより分析的なステートメントを欲しがるからだ。
そこで本研究では,医療用qaシステムによって予測される回答に対する自然言語説明を生成する新しい手法を提案する。
医用教科書から知識を抽出し,説明生成過程における説明の質を高めるために,高品質な医用説明が求められている。
具体的には、これらのテキストで見つかった証拠を推論し、長い証拠の通過に注意を向ける効率的な方法を提供する、期待最大化アプローチを設計した。
2つのデータセット MQAE-diag と MQAE を用いて実験を行い,本フレームワークの有効性を実証した。
このアプローチは最先端モデルよりも優れており、ルージュ-1スコアの \textbf{6.86} と \textbf{9.43} のパーセンテージポイントをそれぞれbleu-4スコアの \textbf{8.23} と \textbf{7.82}パーセンテージポイントで大幅に改善した。
関連論文リスト
- Tri-VQA: Triangular Reasoning Medical Visual Question Answering for Multi-Attribute Analysis [4.964280449393689]
より凝集性で安定なメド-VQA構造の構築について検討する。
因果効果によって動機付けられた新しい三角形推論VQAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T10:50:55Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - Explanatory Argument Extraction of Correct Answers in Resident Medical
Exams [5.399800035598185]
本稿では, 正しい回答に対する説明的議論だけでなく, 誤った回答が正しい理由を推論するための議論を含む新しいデータセットを提案する。
このベンチマークにより,医師が作成した正しい回答の説明を識別する新しい抽出タスクを構築できる。
論文 参考訳(メタデータ) (2023-12-01T13:22:35Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - Medical Question Summarization with Entity-driven Contrastive Learning [12.008269098530386]
本稿では,エンティティ駆動型コントラスト学習(ECL)を用いた新しい医療質問要約フレームワークを提案する。
ECLは、しばしば質問される質問(FAQ)に医療機関を採用し、硬い負のサンプルを生成する効果的なメカニズムを考案している。
iCliniqデータセットの33%の重複率など、いくつかのMQAデータセットが深刻なデータ漏洩問題に悩まされていることが分かりました。
論文 参考訳(メタデータ) (2023-04-15T00:19:03Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Medical Visual Question Answering: A Survey [55.53205317089564]
VQA(Medicical Visual Question Answering)は、医療用人工知能と一般的なVQA課題の組み合わせである。
医療用VQAシステムは,医療用画像と自然言語による臨床的に関連性のある質問を前提として,妥当かつ説得力のある回答を予測することが期待されている。
論文 参考訳(メタデータ) (2021-11-19T05:55:15Z) - Medical Knowledge-enriched Textual Entailment Framework [5.493804101940195]
医用知識に富んだテキスト・エンタテインメント・フレームワークについて紹介する。
我々は、ベンチマークMEDIQA-RQEデータセット上でのフレームワークの評価を行い、知識の豊富な二重符号化機構を用いることで、SOTA言語モデルに対して8.27%の絶対的な改善が達成できることを示した。
論文 参考訳(メタデータ) (2020-11-10T17:25:27Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。