論文の概要: A Joint-Reasoning based Disease Q&A System
- arxiv url: http://arxiv.org/abs/2401.03181v1
- Date: Sat, 6 Jan 2024 09:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:00:11.893212
- Title: A Joint-Reasoning based Disease Q&A System
- Title(参考訳): 共同推論に基づく疾患Q&Aシステム
- Authors: Prakash Chandra Sukhwal, Vaibhav Rajan, Atreyi Kankanhalli
- Abstract要約: 医療質問応答(QA)アシスタントは、複数のソースから情報を合成することで、レイユーザーの健康関連クエリに応答する。
彼らは、誤った情報、情報過負荷、医療言語の複雑さの問題を緩和するための重要なツールとして機能する。
- 参考スコア(独自算出の注目度): 6.6832112735867755
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical question answer (QA) assistants respond to lay users' health-related
queries by synthesizing information from multiple sources using natural
language processing and related techniques. They can serve as vital tools to
alleviate issues of misinformation, information overload, and complexity of
medical language, thus addressing lay users' information needs while reducing
the burden on healthcare professionals. QA systems, the engines of such
assistants, have typically used either language models (LMs) or knowledge
graphs (KG), though the approaches could be complementary. LM-based QA systems
excel at understanding complex questions and providing well-formed answers, but
are prone to factual mistakes. KG-based QA systems, which represent facts well,
are mostly limited to answering short-answer questions with pre-created
templates. While a few studies have jointly used LM and KG approaches for
text-based QA, this was done to answer multiple-choice questions. Extant QA
systems also have limitations in terms of automation and performance. We
address these challenges by designing a novel, automated disease QA system
which effectively utilizes both LM and KG techniques through a joint-reasoning
approach to answer disease-related questions appropriate for lay users. Our
evaluation of the system using a range of quality metrics demonstrates its
efficacy over benchmark systems, including the popular ChatGPT.
- Abstract(参考訳): 医療質問応答(QA)アシスタントは、自然言語処理や関連技術を用いて複数のソースから情報を合成することで、レイユーザーの健康関連クエリに応答する。
彼らは、誤った情報、情報過負荷、医療言語の複雑さの問題を緩和し、医療専門家の負担を軽減しつつ、素人の情報ニーズに対処するための重要なツールとして機能する。
このようなアシスタントのエンジンであるQAシステムは、一般的に言語モデル(LM)または知識グラフ(KG)のいずれかを使用しているが、アプローチは相補的である可能性がある。
LMベースのQAシステムは、複雑な質問を理解し、十分に構成された回答を提供するのに優れているが、現実的な間違いをしがちである。
事実をよく表すKGベースのQAシステムは、多くの場合、事前に作成されたテンプレートを用いて、短い質問に答えることに限られる。
テキストベースのQAにLMとKGのアプローチを併用する研究がいくつかあるが、これは複数の質問に答えるために行われた。
既存のQAシステムにも、自動化とパフォーマンスの面で制限がある。
そこで本研究では,LMとKGの両手法を効果的に活用する,新規な自動疾患QAシステムを設計し,これらの課題に対処する。
各種品質指標を用いたシステム評価は,一般的なChatGPTを含むベンチマークシステムに対して有効であることを示す。
関連論文リスト
- XAIQA: Explainer-Based Data Augmentation for Extractive Question
Answering [1.1867812760085572]
我々は,電子カルテで自然に利用可能なデータから,合成QAペアを大規模に生成するための新しいアプローチであるXAIQAを紹介する。
本手法は、分類モデル説明器の考え方を用いて、医療規範に対応する医療概念に関する質問や回答を生成する。
論文 参考訳(メタデータ) (2023-12-06T15:59:06Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Evaluation of Question Answering Systems: Complexity of judging a
natural language [3.4771957347698583]
質問応答システム(QA)は、自然言語処理(NLP)において最も重要かつ急速に発展している研究課題の一つである。
本調査では,QAの枠組み,QAパラダイム,ベンチマークデータセット,およびQAシステムの定量的評価のための評価手法の体系的概要について述べる。
論文 参考訳(メタデータ) (2022-09-10T12:29:04Z) - Improving the Question Answering Quality using Answer Candidate
Filtering based on Natural-Language Features [117.44028458220427]
本稿では,質問応答(QA)の品質をいかに改善できるかという課題に対処する。
私たちの主な貢献は、QAシステムが提供する間違った回答を識別できるアプローチです。
特に,提案手法は誤答の大部分を除去しつつ,その可能性を示した。
論文 参考訳(メタデータ) (2021-12-10T11:09:44Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z) - NoiseQA: Challenge Set Evaluation for User-Centric Question Answering [68.67783808426292]
応答エンジンに先立つパイプライン内のコンポーネントが,多種多様なエラーの原因を発生させることができることを示す。
我々は、QAシステムが効果的にデプロイされる前に、進歩の余地がかなりあると結論付けている。
論文 参考訳(メタデータ) (2021-02-16T18:35:29Z) - Biomedical Question Answering: A Comprehensive Review [19.38459023509541]
Question Answering (QA) は自然言語処理(NLP)のベンチマークであり、関連する文書、画像、知識ベース、質問-回答ペアを用いてモデルが与えられた質問に対する回答を予測する。
バイオメディシンのような特定のドメインでは、QAシステムは実際の環境では使われない。
バイオメディカルQA(BQA)は、新しいQAタスクとして、革新的なアプリケーションが複雑なバイオメディカル知識を効果的に知覚し、アクセスし、理解することを可能にする。
論文 参考訳(メタデータ) (2021-02-10T06:16:35Z) - A Neural Question Answering System for Basic Questions about Subroutines [32.98355443690782]
質問応答(QA)システムは、人間のユーザーが課す質問に対する自然言語の回答を生成する対話型AIの一種です。
コンテキストベースのQAシステムを設計することで、ソフトウェアエンジニアリングアプリケーションに最先端のニューラルテクノロジーをもたらすための最初の一歩を踏み出します。
論文 参考訳(メタデータ) (2021-01-11T16:18:52Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。