論文の概要: Trust-informed Decision-Making Through An Uncertainty-Aware Stacked Neural Networks Framework: Case Study in COVID-19 Classification
- arxiv url: http://arxiv.org/abs/2410.02805v1
- Date: Thu, 19 Sep 2024 04:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 05:44:23.555200
- Title: Trust-informed Decision-Making Through An Uncertainty-Aware Stacked Neural Networks Framework: Case Study in COVID-19 Classification
- Title(参考訳): 不確かさを意識した階層型ニューラルネットワークによる信頼インフォームド意思決定:COVID-19分類におけるケーススタディ
- Authors: Hassan Gharoun, Mohammad Sadegh Khorshidi, Fang Chen, Amir H. Gandomi,
- Abstract要約: 本研究は、放射線画像から新型コロナウイルスの信頼できる分類のための、不確実性を考慮した重畳ニューラルネットワークモデルを提案する。
このモデルは、確実な正確な予測を正確に識別することに焦点を当て、不確実性を考慮したモデリングにおける重要なギャップに対処する。
このアーキテクチャはモンテカルロのドロップアウトやアンサンブル技術を含む不確実な定量化手法を統合し、予測信頼性を高める。
- 参考スコア(独自算出の注目度): 10.265080819932614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents an uncertainty-aware stacked neural networks model for the reliable classification of COVID-19 from radiological images. The model addresses the critical gap in uncertainty-aware modeling by focusing on accurately identifying confidently correct predictions while alerting users to confidently incorrect and uncertain predictions, which can promote trust in automated systems. The architecture integrates uncertainty quantification methods, including Monte Carlo dropout and ensemble techniques, to enhance predictive reliability by assessing the certainty of diagnostic predictions. Within a two-tier model framework, the tier one model generates initial predictions and associated uncertainties, which the second tier model uses to produce a trust indicator alongside the diagnostic outcome. This dual-output model not only predicts COVID-19 cases but also provides a trust flag, indicating the reliability of each diagnosis and aiming to minimize the need for retesting and expert verification. The effectiveness of this approach is demonstrated through extensive experiments on the COVIDx CXR-4 dataset, showing a novel approach in identifying and handling confidently incorrect cases and uncertain cases, thus enhancing the trustworthiness of automated diagnostics in clinical settings.
- Abstract(参考訳): 本研究は、放射線画像から新型コロナウイルスの信頼できる分類のための、不確実性を考慮した重畳ニューラルネットワークモデルを提案する。
モデルでは,不確実性を考慮したモデリングにおいて,信頼性の高い予測を正確に識別し,不確かで不確実な予測をユーザに警告することで,自動システムの信頼を高めることによって,重要なギャップに対処する。
このアーキテクチャはモンテカルロのドロップアウトやアンサンブル技術を含む不確実な定量化手法を統合し、診断予測の確実性を評価することによって予測信頼性を高める。
2層モデルフレームワーク内では、第1層モデルが初期予測と関連する不確実性を生成し、第2層モデルが診断結果と並行して信頼指標を生成する。
このデュアルアウトプットモデルは、新型コロナウイルスの患者を予測するだけでなく、信頼フラグも提供し、診断の信頼性を示し、再検査や専門家による検証の必要性を最小限にすることを目指している。
このアプローチの有効性は、CXR-4データセットの広範な実験を通じて実証され、確実な不正確な症例と不確実な症例を特定し、対処するための新しいアプローチを示し、臨床現場における自動診断の信頼性を高める。
関連論文リスト
- Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Uncertainty-Informed Deep Learning Models Enable High-Confidence
Predictions for Digital Histopathology [40.96261204117952]
肺腺癌と扁平上皮癌を鑑別するモデルを訓練し,高い信頼度予測がUQなしで予測を上回ることを示す。
非肺癌コホートに対する腺癌と扁平上皮癌との高信頼度予測を精度良く行うことで, 領域シフトの設定においてUQ閾値の信頼性が保たれることを示す。
論文 参考訳(メタデータ) (2022-04-09T17:35:37Z) - Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction [3.090173647095682]
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
論文 参考訳(メタデータ) (2021-09-22T10:37:50Z) - Confidence Aware Neural Networks for Skin Cancer Detection [12.300911283520719]
画像からの皮膚癌検出における不確かさを定量化する3つの方法を提案する。
その結果, 予測不確実性推定手法は, リスクや誤予測を予測できることがわかった。
また、アンサンブルアプローチは推論によって不確実性を捉える上でより信頼性が高いことを示す。
論文 参考訳(メタデータ) (2021-07-19T19:21:57Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。