論文の概要: Interpreting Uncertainty in Model Predictions For COVID-19 Diagnosis
- arxiv url: http://arxiv.org/abs/2010.13271v1
- Date: Mon, 26 Oct 2020 01:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:39:16.012670
- Title: Interpreting Uncertainty in Model Predictions For COVID-19 Diagnosis
- Title(参考訳): 新型コロナウイルスの診断におけるモデル予測の不確かさの解釈
- Authors: Gayathiri Murugamoorthy and Naimul Khan
- Abstract要約: 新型コロナウイルス(COVID-19)は、一般的なラボスワブ検査に加えて、診断の迅速化に補助ツールを使用する必要性が高まっている。
従来の畳み込みネットワークは、不確実性の捕捉に欠ける予測に点推定を用いる。
ベイジアン畳み込みニューラルネットワークを用いて計算された予測の不確実性を考慮した,不確実性とそのコンポーネントの解釈可能性に対処する可視化フレームワークを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: COVID-19, due to its accelerated spread has brought in the need to use
assistive tools for faster diagnosis in addition to typical lab swab testing.
Chest X-Rays for COVID cases tend to show changes in the lungs such as ground
glass opacities and peripheral consolidations which can be detected by deep
neural networks. However, traditional convolutional networks use point estimate
for predictions, lacking in capture of uncertainty, which makes them less
reliable for adoption. There have been several works so far in predicting COVID
positive cases with chest X-Rays. However, not much has been explored on
quantifying the uncertainty of these predictions, interpreting uncertainty, and
decomposing this to model or data uncertainty. To address these needs, we
develop a visualization framework to address interpretability of uncertainty
and its components, with uncertainty in predictions computed with a Bayesian
Convolutional Neural Network. This framework aims to understand the
contribution of individual features in the Chest-X-Ray images to predictive
uncertainty. Providing this as an assistive tool can help the radiologist
understand why the model came up with a prediction and whether the regions of
interest captured by the model for the specific prediction are of significance
in diagnosis. We demonstrate the usefulness of the tool in chest x-ray
interpretation through several test cases from a benchmark dataset.
- Abstract(参考訳): 新型コロナウイルスの感染拡大が加速しているため、一般的なラボスワブ検査に加えて、診断の迅速化に補助ツールを使う必要がある。
新型コロナウイルスの胸部x線は、深層ニューラルネットワークによって検出できるグラウンドグラスの不透明度や末梢圧密などの肺の変化を示す傾向がある。
しかし、従来の畳み込みネットワークは予測にポイント推定を使い、不確かさを把握できないため、採用の信頼性が低下する。
これまでのところ、胸部x線による新型コロナウイルス陽性例の予測にはいくつかの研究がある。
しかし、これらの予測の不確実性を定量化し、不確実性を解釈し、これをモデルやデータ不確実性に分解する研究はあまり行われていない。
これらのニーズに対処するために,ベイズ畳み込みニューラルネットワークで計算される予測の不確実性を用いて,不確実性とその構成要素の解釈可能性に対処する可視化フレームワークを開発した。
このフレームワークは、チェストX線画像における個々の特徴の予測不確実性への寄与を理解することを目的としている。
これを補助的なツールとして提供することで、放射線科医はモデルがなぜ予測を思いついたのか、特定の予測のためにモデルが捉えた関心領域が診断に重要であるかどうかを理解するのに役立つ。
ベンチマークデータセットからのいくつかのテストケースを通して胸部X線解釈におけるツールの有用性を示す。
関連論文リスト
- Trust-informed Decision-Making Through An Uncertainty-Aware Stacked Neural Networks Framework: Case Study in COVID-19 Classification [10.265080819932614]
本研究は、放射線画像から新型コロナウイルスの信頼できる分類のための、不確実性を考慮した重畳ニューラルネットワークモデルを提案する。
このモデルは、確実な正確な予測を正確に識別することに焦点を当て、不確実性を考慮したモデリングにおける重要なギャップに対処する。
このアーキテクチャはモンテカルロのドロップアウトやアンサンブル技術を含む不確実な定量化手法を統合し、予測信頼性を高める。
論文 参考訳(メタデータ) (2024-09-19T04:20:12Z) - SepsisLab: Early Sepsis Prediction with Uncertainty Quantification and Active Sensing [67.8991481023825]
セプシスは米国での院内死亡の主な原因である。
既存の予測モデルは通常、情報不足の少ない高品質なデータで訓練される。
限られた観察により信頼性の低い高リスク患者に対して,ロバストな能動センシングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:47:36Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Objective Evaluation of Deep Uncertainty Predictions for COVID-19
Detection [15.036447340859546]
ディープニューラルネットワーク(DNN)は、医療画像におけるCOVID-19の検出に広く適用されています。
胸部X線(CXR)画像を用いた3つの不確実性定量化手法の適用と評価を行った。
論文 参考訳(メタデータ) (2020-12-22T05:43:42Z) - An Uncertainty-aware Transfer Learning-based Framework for Covid-19
Diagnosis [10.832659320593347]
本稿では,医療画像を用いたCOVID-19検出のための深層不確実性認識型トランスファー学習フレームワークを提案する。
4つの一般的な畳み込みニューラルネットワーク(CNN)を用いて胸部X線画像とCT画像から深い特徴を抽出する。
抽出された機能は、さまざまな機械学習と統計モデリング技術によって処理され、新型コロナウイルスの症例を特定する。
論文 参考訳(メタデータ) (2020-07-26T20:15:01Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。