論文の概要: Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision
- arxiv url: http://arxiv.org/abs/2209.15301v1
- Date: Fri, 30 Sep 2022 08:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:24:42.809195
- Title: Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision
- Title(参考訳): 知識基盤と意味的自己監督による医療質問理解と回答
- Authors: Khalil Mrini, Harpreet Singh, Franck Dernoncourt, Seunghyun Yoon,
Trung Bui, Walter Chang, Emilia Farcas, Ndapa Nakashole
- Abstract要約: 本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
- 参考スコア(独自算出の注目度): 53.692793122749414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current medical question answering systems have difficulty processing long,
detailed and informally worded questions submitted by patients, called Consumer
Health Questions (CHQs). To address this issue, we introduce a medical question
understanding and answering system with knowledge grounding and semantic
self-supervision. Our system is a pipeline that first summarizes a long,
medical, user-written question, using a supervised summarization loss. Then,
our system performs a two-step retrieval to return answers. The system first
matches the summarized user question with an FAQ from a trusted medical
knowledge base, and then retrieves a fixed number of relevant sentences from
the corresponding answer document. In the absence of labels for question
matching or answer relevance, we design 3 novel, self-supervised and
semantically-guided losses. We evaluate our model against two strong
retrieval-based question answering baselines. Evaluators ask their own
questions and rate the answers retrieved by our baselines and own system
according to their relevance. They find that our system retrieves more relevant
answers, while achieving speeds 20 times faster. Our self-supervised losses
also help the summarizer achieve higher scores in ROUGE, as well as in human
evaluation metrics. We release our code to encourage further research.
- Abstract(参考訳): 現在の医療質問応答システムは、consumer health questions (chqs)と呼ばれる患者が提出する長く、詳細で非公式な質問を処理するのが困難である。
この問題に対処するために,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムを導入する。
当社のシステムは,教師付き要約損失を用いて,長く,医学的,ユーザによって書かれた質問を最初に要約するパイプラインである。
そこで,本システムは2段階の探索を行い,回答を返す。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
質問マッチングや回答関連性のためのラベルがない場合、我々は3つの新しい、自己教師付き、意味的に誘導された損失を設計する。
我々は2つの強力な検索に基づく質問応答ベースラインに対するモデルの評価を行った。
評価者は自身の質問をし、ベースラインとシステムによって得られた回答を関連性に応じて評価する。
彼らは、我々のシステムがより関連する答えを検索し、速度を20倍速く達成できることに気付きました。
自己教師付き損失は,人間評価指標と同様に,ルージュにおいて高いスコアを得る上でも有効である。
さらなる研究を促進するためにコードをリリースします。
関連論文リスト
- Do RAG Systems Cover What Matters? Evaluating and Optimizing Responses with Sub-Question Coverage [74.70255719194819]
サブクエストカバレッジに基づく新しいフレームワークを導入し、RAGシステムが質問の異なる面にどのように対処するかを計測する。
このフレームワークを使用して、You.com、Perplexity AI、Bing Chatの3つの商用生成応答エンジンを評価します。
すべての回答エンジンは、バックグラウンドやフォローアップよりも、コアサブクエストを頻繁にカバーしていますが、コアサブクエストの約50%を見逃しています。
論文 参考訳(メタデータ) (2024-10-20T22:59:34Z) - A Joint-Reasoning based Disease Q&A System [6.117758142183177]
医療質問応答(QA)アシスタントは、複数のソースから情報を合成することで、レイユーザーの健康関連クエリに応答する。
彼らは、誤った情報、情報過負荷、医療言語の複雑さの問題を緩和するための重要なツールとして機能する。
論文 参考訳(メタデータ) (2024-01-06T09:55:22Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Interactive Question Answering Systems: Literature Review [17.033640293433397]
対話型質問応答(Interactive Question answering)は、質問応答と対話システムの交差点に存在する、最近提案され、ますます人気が高まっているソリューションである。
ユーザがより多くの質問をできるようにすることで、インタラクティブな質問応答によって、ユーザはシステムと動的に対話し、より正確な結果を受け取ることができる。
本調査は,現在の文献で広く普及している対話型質問応答法の概要を概説する。
論文 参考訳(メタデータ) (2022-09-04T13:46:54Z) - SPBERTQA: A Two-Stage Question Answering System Based on Sentence
Transformers for Medical Texts [2.5199066832791535]
本稿では,MNR損失をBM25と組み合わせたSBERT(Sentence-BERT)に基づく2段階QAシステムを提案する。
その結果,従来の手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2022-06-20T07:07:59Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - Question-aware Transformer Models for Consumer Health Question
Summarization [20.342580435464072]
我々は,医療機関の認識を通じて質問の意味的解釈を活用する抽象的質問要約モデルを開発した。
MeQSumベンチマークコーパスで評価すると、我々のフレームワークは最先端の手法を10.2ROUGE-Lで上回りました。
論文 参考訳(メタデータ) (2021-06-01T04:21:31Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。