論文の概要: Uncertainty Quantification for Machine Learning in Healthcare: A Survey
- arxiv url: http://arxiv.org/abs/2505.02874v1
- Date: Sun, 04 May 2025 16:56:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.055814
- Title: Uncertainty Quantification for Machine Learning in Healthcare: A Survey
- Title(参考訳): 医療における機械学習の不確実性定量化に関する調査
- Authors: L. Julián Lechuga López, Shaza Elsharief, Dhiyaa Al Jorf, Firas Darwish, Congbo Ma, Farah E. Shamout,
- Abstract要約: 不確実性定量化(UQ)は、医療における機械学習(ML)システムの堅牢性、信頼性、解釈可能性を高める上で重要である。
MLベースの臨床意思決定支援ツールの出現にもかかわらず、MLモデルにおける不確実性の原理的定量化の欠如は大きな課題である。
本研究は、医療のためのMLパイプラインにUQを実装する上での課題と機会について、より明確な概要を提供する。
- 参考スコア(独自算出の注目度): 3.023243549665548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty Quantification (UQ) is pivotal in enhancing the robustness, reliability, and interpretability of Machine Learning (ML) systems for healthcare, optimizing resources and improving patient care. Despite the emergence of ML-based clinical decision support tools, the lack of principled quantification of uncertainty in ML models remains a major challenge. Current reviews have a narrow focus on analyzing the state-of-the-art UQ in specific healthcare domains without systematically evaluating method efficacy across different stages of model development, and despite a growing body of research, its implementation in healthcare applications remains limited. Therefore, in this survey, we provide a comprehensive analysis of current UQ in healthcare, offering an informed framework that highlights how different methods can be integrated into each stage of the ML pipeline including data processing, training and evaluation. We also highlight the most popular methods used in healthcare and novel approaches from other domains that hold potential for future adoption in the medical context. We expect this study will provide a clear overview of the challenges and opportunities of implementing UQ in the ML pipeline for healthcare, guiding researchers and practitioners in selecting suitable techniques to enhance the reliability, safety and trust from patients and clinicians on ML-driven healthcare solutions.
- Abstract(参考訳): 不確実性定量化(UQ)は、医療における機械学習(ML)システムの堅牢性、信頼性、解釈可能性の向上、リソースの最適化、患者ケアの改善に重要である。
MLベースの臨床意思決定支援ツールの出現にもかかわらず、MLモデルにおける不確実性の原理的定量化の欠如は大きな課題である。
現在のレビューでは、特定の医療領域における最先端のUQの分析に焦点が当てられているが、モデル開発の各段階における方法の有効性を体系的に評価することはない。
そこで本調査では,医療における現在のUQを包括的に分析し,データ処理やトレーニング,評価を含むMLパイプラインの各ステージに,さまざまなメソッドをどのように組み込むことができるかを示す,情報フレームワークを提供する。
また、医療分野で使われる最も一般的な方法や、医療分野における将来的な採用の可能性を秘めている他の領域からの新たなアプローチについても強調する。
本研究は、医療用MLパイプラインにUQを実装する上での課題と機会について、研究者や実践者が、ML駆動型医療ソリューションにおける患者や臨床医の信頼性、安全性、信頼を高めるための適切な技術を選択する上での指針となることを期待する。
関連論文リスト
- Med-CoDE: Medical Critique based Disagreement Evaluation Framework [72.42301910238861]
医学的文脈における大きな言語モデル(LLM)の信頼性と精度は依然として重要な懸念点である。
現在の評価手法はロバスト性に欠けることが多く、LLMの性能を総合的に評価することができない。
我々は,これらの課題に対処するために,医療用LCMの特別設計評価フレームワークであるMed-CoDEを提案する。
論文 参考訳(メタデータ) (2025-04-21T16:51:11Z) - Performance of Large Language Models in Supporting Medical Diagnosis and Treatment [0.0]
AI駆動システムは、膨大なデータセットを分析し、臨床医が病気を特定し、治療を推奨し、患者の結果を予測するのを支援する。
本研究は,2024年のポルトガル国立試験場において,オープンソースモデルとクローズドソースモデルの両方を含む,現代LLMの性能評価を行った。
論文 参考訳(メタデータ) (2025-04-14T16:53:59Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - The Role of Explainable AI in Revolutionizing Human Health Monitoring: A Review [0.0]
Reviewは、医療における機械学習(ML)モデルの解釈可能性問題に対処する上で、説明可能なAI(XAI)の役割を強調することを目的としている。
複数のデータベースにまたがって総合的な文献検索を行い、医療にXAI技術を適用した研究を同定した。
論文 参考訳(メタデータ) (2024-09-11T15:31:40Z) - IntelliCare: Improving Healthcare Analysis with Variance-Controlled Patient-Level Knowledge from Large Language Models [14.709233593021281]
LLM(Large Language Models)からの外部知識の統合は、医療予測を改善するための有望な道を示す。
我々は,LLMを活用して高品質な患者レベルの外部知識を提供する新しいフレームワークであるIntelliCareを提案する。
IntelliCareは患者のコホートを特定し、LCMの理解と生成を促進するためにタスク関連統計情報を利用する。
論文 参考訳(メタデータ) (2024-08-23T13:56:00Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - The Significance of Machine Learning in Clinical Disease Diagnosis: A
Review [0.0]
本研究では、時系列医療指標における心拍データの伝達を改善するための機械学習アルゴリズムの能力について検討する。
検討中の要因は、アルゴリズムの利用、対象とする疾患の種類、採用されるデータの種類、応用、評価指標などである。
論文 参考訳(メタデータ) (2023-10-25T20:28:22Z) - Privacy-preserving machine learning for healthcare: open challenges and
future perspectives [72.43506759789861]
医療におけるプライバシー保護機械学習(PPML)に関する最近の文献を概観する。
プライバシ保護トレーニングと推論・アズ・ア・サービスに重点を置いています。
このレビューの目的は、医療におけるプライベートかつ効率的なMLモデルの開発をガイドすることである。
論文 参考訳(メタデータ) (2023-03-27T19:20:51Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。