論文の概要: Question answering systems for health professionals at the point of care
-- a systematic review
- arxiv url: http://arxiv.org/abs/2402.01700v1
- Date: Wed, 24 Jan 2024 13:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:40:16.041387
- Title: Question answering systems for health professionals at the point of care
-- a systematic review
- Title(参考訳): 介護現場における医療従事者の質問応答システム -体系的考察-
- Authors: Gregory Kell, Angus Roberts, Serge Umansky, Linglong Qian, Davide
Ferrari, Frank Soboczenski, Byron Wallace, Nikhil Patel, Iain J Marshall
- Abstract要約: 質問応答システム(QA)は、医療専門家に最新の最も関係のある証拠を提供することで、医療の質を向上させる可能性がある。
この体系的なレビューは、現在の医療QAシステムを特徴づけ、医療への適合性を評価し、改善の領域を特定することを目的としている。
- 参考スコア(独自算出の注目度): 2.446313557261822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Question answering (QA) systems have the potential to improve the
quality of clinical care by providing health professionals with the latest and
most relevant evidence. However, QA systems have not been widely adopted. This
systematic review aims to characterize current medical QA systems, assess their
suitability for healthcare, and identify areas of improvement.
Materials and methods: We searched PubMed, IEEE Xplore, ACM Digital Library,
ACL Anthology and forward and backward citations on 7th February 2023. We
included peer-reviewed journal and conference papers describing the design and
evaluation of biomedical QA systems. Two reviewers screened titles, abstracts,
and full-text articles. We conducted a narrative synthesis and risk of bias
assessment for each study. We assessed the utility of biomedical QA systems.
Results: We included 79 studies and identified themes, including question
realism, answer reliability, answer utility, clinical specialism, systems,
usability, and evaluation methods. Clinicians' questions used to train and
evaluate QA systems were restricted to certain sources, types and complexity
levels. No system communicated confidence levels in the answers or sources.
Many studies suffered from high risks of bias and applicability concerns. Only
8 studies completely satisfied any criterion for clinical utility, and only 7
reported user evaluations. Most systems were built with limited input from
clinicians.
Discussion: While machine learning methods have led to increased accuracy,
most studies imperfectly reflected real-world healthcare information needs. Key
research priorities include developing more realistic healthcare QA datasets
and considering the reliability of answer sources, rather than merely focusing
on accuracy.
- Abstract(参考訳): 目的: 質問応答システム(QA)は, 医療専門家に最新の, 最も関連性の高い証拠を提供することにより, 臨床ケアの質を向上させる可能性を秘めている。
しかし、QAシステムは広く採用されていない。
この体系的なレビューは、現在の医療QAシステムを特徴づけ、医療への適合性を評価し、改善の領域を特定することを目的としている。
資料と方法:2023年2月7日にPubMed, IEEE Xplore, ACM Digital Library, ACL Anthologyおよび前後の引用を検索した。
バイオメディカルQAシステムの設計と評価を記載した査読論文や会議論文も紹介した。
2人のレビュアーがタイトル、要約、全文記事をスクリーニングした。
本研究では,各研究の物語合成とバイアス評価のリスクについて検討した。
バイオメディカルQAシステムの有用性を評価した。
結果: 質問状リアリズム, 回答信頼性, 回答ユーティリティ, 臨床専門性, システム, ユーザビリティ, 評価方法など,79研究と特定テーマについて検討した。
QAシステムのトレーニングと評価に使用された臨床医の質問は、特定のソース、タイプ、複雑さレベルに制限された。
回答や情報源の信頼度を伝達するシステムはない。
多くの研究はバイアスと適用可能性に関する高いリスクに悩まされた。
臨床効果の基準を完全に満たした研究は8例のみで, ユーザ評価は7例のみであった。
ほとんどのシステムは臨床医からの限られたインプットで構築された。
議論: 機械学習手法は精度の向上につながったが、ほとんどの研究は現実世界の医療情報のニーズを不完全に反映している。
主な研究優先事項は、より現実的な医療用QAデータセットの開発と、単に正確性にフォーカスするのではなく、回答ソースの信頼性を考慮することである。
関連論文リスト
- Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - RealMedQA: A pilot biomedical question answering dataset containing realistic clinical questions [3.182594503527438]
本稿では,人間とLLMが生み出す現実的な臨床質問のデータセットであるRealMedQAを紹介する。
LLMは「理想的な」QAペアを生成するのに、よりコスト効率が高いことを示す。
論文 参考訳(メタデータ) (2024-08-16T09:32:43Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Emulating Human Cognitive Processes for Expert-Level Medical
Question-Answering with Large Language Models [0.23463422965432823]
BooksMedはLarge Language Model(LLM)に基づいた新しいフレームワークである
人間の認知プロセスをエミュレートして、エビデンスベースの信頼性の高い応答を提供する。
本稿では、専門家レベルのオープンエンドな質問からなるベンチマークであるExpertMedQAを紹介する。
論文 参考訳(メタデータ) (2023-10-17T13:39:26Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - What Would it Take to get Biomedical QA Systems into Practice? [21.339520766920092]
医療質問応答システム(QA)は、診療医が要求に応じて治療や診断について不確実性に答える可能性を秘めている。
NLPコミュニティによる一般QAの進歩にもかかわらず、医療QAシステムはまだ臨床環境では広く使われていない。
論文 参考訳(メタデータ) (2021-09-21T19:39:42Z) - Image Based Artificial Intelligence in Wound Assessment: A Systematic
Review [0.0]
急性および慢性の創傷の評価は、創傷治療チームが診断を改善し、治療計画を最適化し、作業負荷を緩和し、患者の健康関連品質を達成するのに役立つ。
人工知能は、健康関連科学やテクノロジーに広く応用されているが、AIベースのシステムは、高品質な創傷治療のために、臨床および計算的に開発され続けている。
論文 参考訳(メタデータ) (2020-09-15T14:52:14Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - Opportunities of a Machine Learning-based Decision Support System for
Stroke Rehabilitation Assessment [64.52563354823711]
リハビリテーションアセスメントは、患者の適切な介入を決定するために重要である。
現在の評価の実践は、主にセラピストの経験に依存しており、セラピストの可用性が限られているため、アセスメントは頻繁に実施される。
我々は、強化学習を用いて評価の健全な特徴を識別できるインテリジェントな意思決定支援システムを開発した。
論文 参考訳(メタデータ) (2020-02-27T17:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。