論文の概要: Question answering systems for health professionals at the point of care
-- a systematic review
- arxiv url: http://arxiv.org/abs/2402.01700v1
- Date: Wed, 24 Jan 2024 13:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:40:16.041387
- Title: Question answering systems for health professionals at the point of care
-- a systematic review
- Title(参考訳): 介護現場における医療従事者の質問応答システム -体系的考察-
- Authors: Gregory Kell, Angus Roberts, Serge Umansky, Linglong Qian, Davide
Ferrari, Frank Soboczenski, Byron Wallace, Nikhil Patel, Iain J Marshall
- Abstract要約: 質問応答システム(QA)は、医療専門家に最新の最も関係のある証拠を提供することで、医療の質を向上させる可能性がある。
この体系的なレビューは、現在の医療QAシステムを特徴づけ、医療への適合性を評価し、改善の領域を特定することを目的としている。
- 参考スコア(独自算出の注目度): 2.446313557261822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Question answering (QA) systems have the potential to improve the
quality of clinical care by providing health professionals with the latest and
most relevant evidence. However, QA systems have not been widely adopted. This
systematic review aims to characterize current medical QA systems, assess their
suitability for healthcare, and identify areas of improvement.
Materials and methods: We searched PubMed, IEEE Xplore, ACM Digital Library,
ACL Anthology and forward and backward citations on 7th February 2023. We
included peer-reviewed journal and conference papers describing the design and
evaluation of biomedical QA systems. Two reviewers screened titles, abstracts,
and full-text articles. We conducted a narrative synthesis and risk of bias
assessment for each study. We assessed the utility of biomedical QA systems.
Results: We included 79 studies and identified themes, including question
realism, answer reliability, answer utility, clinical specialism, systems,
usability, and evaluation methods. Clinicians' questions used to train and
evaluate QA systems were restricted to certain sources, types and complexity
levels. No system communicated confidence levels in the answers or sources.
Many studies suffered from high risks of bias and applicability concerns. Only
8 studies completely satisfied any criterion for clinical utility, and only 7
reported user evaluations. Most systems were built with limited input from
clinicians.
Discussion: While machine learning methods have led to increased accuracy,
most studies imperfectly reflected real-world healthcare information needs. Key
research priorities include developing more realistic healthcare QA datasets
and considering the reliability of answer sources, rather than merely focusing
on accuracy.
- Abstract(参考訳): 目的: 質問応答システム(QA)は, 医療専門家に最新の, 最も関連性の高い証拠を提供することにより, 臨床ケアの質を向上させる可能性を秘めている。
しかし、QAシステムは広く採用されていない。
この体系的なレビューは、現在の医療QAシステムを特徴づけ、医療への適合性を評価し、改善の領域を特定することを目的としている。
資料と方法:2023年2月7日にPubMed, IEEE Xplore, ACM Digital Library, ACL Anthologyおよび前後の引用を検索した。
バイオメディカルQAシステムの設計と評価を記載した査読論文や会議論文も紹介した。
2人のレビュアーがタイトル、要約、全文記事をスクリーニングした。
本研究では,各研究の物語合成とバイアス評価のリスクについて検討した。
バイオメディカルQAシステムの有用性を評価した。
結果: 質問状リアリズム, 回答信頼性, 回答ユーティリティ, 臨床専門性, システム, ユーザビリティ, 評価方法など,79研究と特定テーマについて検討した。
QAシステムのトレーニングと評価に使用された臨床医の質問は、特定のソース、タイプ、複雑さレベルに制限された。
回答や情報源の信頼度を伝達するシステムはない。
多くの研究はバイアスと適用可能性に関する高いリスクに悩まされた。
臨床効果の基準を完全に満たした研究は8例のみで, ユーザ評価は7例のみであった。
ほとんどのシステムは臨床医からの限られたインプットで構築された。
議論: 機械学習手法は精度の向上につながったが、ほとんどの研究は現実世界の医療情報のニーズを不完全に反映している。
主な研究優先事項は、より現実的な医療用QAデータセットの開発と、単に正確性にフォーカスするのではなく、回答ソースの信頼性を考慮することである。
関連論文リスト
- A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - De-identification of clinical free text using natural language
processing: A systematic review of current approaches [48.343430343213896]
自然言語処理は、その非識別プロセスの自動化の可能性を繰り返し示してきた。
本研究の目的は,過去13年間に臨床自由テキストの非識別化が進展したことを示す体系的な証拠を提供することである。
論文 参考訳(メタデータ) (2023-11-28T13:20:41Z) - Emulating Human Cognitive Processes for Expert-Level Medical
Question-Answering with Large Language Models [0.23463422965432823]
BooksMedはLarge Language Model(LLM)に基づいた新しいフレームワークである
人間の認知プロセスをエミュレートして、エビデンスベースの信頼性の高い応答を提供する。
本稿では、専門家レベルのオープンエンドな質問からなるベンチマークであるExpertMedQAを紹介する。
論文 参考訳(メタデータ) (2023-10-17T13:39:26Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - What Would it Take to get Biomedical QA Systems into Practice? [21.339520766920092]
医療質問応答システム(QA)は、診療医が要求に応じて治療や診断について不確実性に答える可能性を秘めている。
NLPコミュニティによる一般QAの進歩にもかかわらず、医療QAシステムはまだ臨床環境では広く使われていない。
論文 参考訳(メタデータ) (2021-09-21T19:39:42Z) - Image Based Artificial Intelligence in Wound Assessment: A Systematic
Review [0.0]
急性および慢性の創傷の評価は、創傷治療チームが診断を改善し、治療計画を最適化し、作業負荷を緩和し、患者の健康関連品質を達成するのに役立つ。
人工知能は、健康関連科学やテクノロジーに広く応用されているが、AIベースのシステムは、高品質な創傷治療のために、臨床および計算的に開発され続けている。
論文 参考訳(メタデータ) (2020-09-15T14:52:14Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - Enterprise Architecture in Healthcare Systems: A systematic literature
review [0.0]
エンタープライズアーキテクチャ(EA)は1980年代から科学文献に存在してきた。
EAは、ビジネス目標を達成するためのポリシーやプロジェクトを調整するための推奨事項をビジネスとICTのリーダーに提示することで価値を提供する。
本研究は、医療システムにおける現在のEA実践を実証する研究を選定するために、体系的な文献レビューを提示する。
論文 参考訳(メタデータ) (2020-07-14T02:01:25Z) - Opportunities of a Machine Learning-based Decision Support System for
Stroke Rehabilitation Assessment [64.52563354823711]
リハビリテーションアセスメントは、患者の適切な介入を決定するために重要である。
現在の評価の実践は、主にセラピストの経験に依存しており、セラピストの可用性が限られているため、アセスメントは頻繁に実施される。
我々は、強化学習を用いて評価の健全な特徴を識別できるインテリジェントな意思決定支援システムを開発した。
論文 参考訳(メタデータ) (2020-02-27T17:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。