論文の概要: Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering
- arxiv url: http://arxiv.org/abs/2008.02434v1
- Date: Thu, 6 Aug 2020 02:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:39:43.882028
- Title: Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering
- Title(参考訳): 複雑な医療質問応答に対する知識抽出による解釈可能な多段階推論
- Authors: Ye Liu, Shaika Chowdhury, Chenwei Zhang, Cornelia Caragea, Philip S.
Yu
- Abstract要約: HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
- 参考スコア(独自算出の注目度): 89.76059961309453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Healthcare question answering assistance aims to provide customer healthcare
information, which widely appears in both Web and mobile Internet. The
questions usually require the assistance to have proficient healthcare
background knowledge as well as the reasoning ability on the knowledge.
Recently a challenge involving complex healthcare reasoning, HeadQA dataset,
has been proposed, which contains multiple-choice questions authorized for the
public healthcare specialization exam. Unlike most other QA tasks that focus on
linguistic understanding, HeadQA requires deeper reasoning involving not only
knowledge extraction, but also complex reasoning with healthcare knowledge.
These questions are the most challenging for current QA systems, and the
current performance of the state-of-the-art method is slightly better than a
random guess. In order to solve this challenging task, we present a Multi-step
reasoning with Knowledge extraction framework (MurKe). The proposed framework
first extracts the healthcare knowledge as supporting documents from the large
corpus. In order to find the reasoning chain and choose the correct answer,
MurKe iterates between selecting the supporting documents, reformulating the
query representation using the supporting documents and getting entailment
score for each choice using the entailment model. The reformulation module
leverages selected documents for missing evidence, which maintains
interpretability. Moreover, we are striving to make full use of off-the-shelf
pre-trained models. With less trainable weight, the pre-trained model can
easily adapt to healthcare tasks with limited training samples. From the
experimental results and ablation study, our system is able to outperform
several strong baselines on the HeadQA dataset.
- Abstract(参考訳): 医療質問応答支援は、Webとモバイルの両方で広く見られる顧客医療情報の提供を目的としている。
質問は通常、熟練した医療背景知識と知識に対する推論能力の獲得を支援する必要がある。
近年、公衆医療専門試験に認定された複数項目の質問を含む、複雑な医療推論であるHeadQAデータセットが提案されている。
言語理解に重点を置く他のほとんどのQAタスクとは異なり、HeadQAは知識抽出だけでなく、医療知識の複雑な推論も含む深い推論を必要とする。
これらの質問は現在のQAシステムにとって最も難しい問題であり、最先端の手法の現在の性能はランダムな推測よりもわずかに優れている。
この課題を解決するために,知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
提案フレームワークはまず,医療知識を大規模コーパスから支援文書として抽出する。
推論チェインを見つけ、正しい回答を選択するために、murke氏は、サポートドキュメントの選択と、サポートドキュメントによるクエリ表現の再構成と、補足モデルを使用して各選択に対する補足スコアの取得を繰り返す。
修正モジュールは、解釈可能性を維持するために、選択した文書を活用する。
さらに,市販の事前学習モデルの利用にも全力を挙げている。
トレーニング可能な重量が少なければ、トレーニング済みのモデルは、限られたトレーニングサンプルで、医療タスクに容易に適応できる。
実験結果とアブレーションの結果から,本システムはHeadQAデータセットにおいて,いくつかの強いベースラインを上回りうることがわかった。
関連論文リスト
- Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - A Joint-Reasoning based Disease Q&A System [6.117758142183177]
医療質問応答(QA)アシスタントは、複数のソースから情報を合成することで、レイユーザーの健康関連クエリに応答する。
彼らは、誤った情報、情報過負荷、医療言語の複雑さの問題を緩和するための重要なツールとして機能する。
論文 参考訳(メタデータ) (2024-01-06T09:55:22Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - Reasoning over Hierarchical Question Decomposition Tree for Explainable
Question Answering [83.74210749046551]
ヘテロジニアス知識統合のための質問分解手法を提案する。
階層的質問分解木(RoHT)を用いた新しい2段階XQAフレームワークを提案する。
複雑なQAデータセットKQA ProとMusiqueの実験は、我々のフレームワークがSOTAメソッドを著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-05-24T11:45:59Z) - Large Language Models Need Holistically Thought in Medical
Conversational QA [24.2230289885612]
The Holistically Thought (HoT) method is designed to guide the LLMs to perform thediffused and focused thinking for generate high-quality medical response。
提案手法は,3種類の医療用CQAデータセットの自動評価と手動評価によって評価されている。
論文 参考訳(メタデータ) (2023-05-09T12:57:28Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Hierarchical Deep Multi-modal Network for Medical Visual Question
Answering [25.633660028022195]
本稿では,エンドユーザの質問/問い合わせを分析し,分類する階層的なディープマルチモーダルネットワークを提案する。
我々は、QSモデルを階層的な深層多モードニューラルネットワークに統合し、医用画像に関するクエリに対する適切な回答を生成する。
論文 参考訳(メタデータ) (2020-09-27T07:24:41Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。