論文の概要: Uncertainty aware and explainable diagnosis of retinal disease
- arxiv url: http://arxiv.org/abs/2101.12041v1
- Date: Tue, 26 Jan 2021 23:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 00:00:45.489050
- Title: Uncertainty aware and explainable diagnosis of retinal disease
- Title(参考訳): 網膜疾患の不確かさと説明可能な診断
- Authors: Amitojdeep Singh, Sourya Sengupta, Mohammed Abdul Rasheed,
Varadharajan Jayakumar, and Vasudevan Lakshminarayanan
- Abstract要約: 4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods for ophthalmic diagnosis have shown considerable
success in tasks like segmentation and classification. However, their
widespread application is limited due to the models being opaque and vulnerable
to making a wrong decision in complicated cases. Explainability methods show
the features that a system used to make prediction while uncertainty awareness
is the ability of a system to highlight when it is not sure about the decision.
This is one of the first studies using uncertainty and explanations for
informed clinical decision making. We perform uncertainty analysis of a deep
learning model for diagnosis of four retinal diseases - age-related macular
degeneration (AMD), central serous retinopathy (CSR), diabetic retinopathy
(DR), and macular hole (MH) using images from a publicly available (OCTID)
dataset. Monte Carlo (MC) dropout is used at the test time to generate a
distribution of parameters and the predictions approximate the predictive
posterior of a Bayesian model. A threshold is computed using the distribution
and uncertain cases can be referred to the ophthalmologist thus avoiding an
erroneous diagnosis. The features learned by the model are visualized using a
proven attribution method from a previous study. The effects of uncertainty on
model performance and the relationship between uncertainty and explainability
are discussed in terms of clinical significance. The uncertainty information
along with the heatmaps make the system more trustworthy for use in clinical
settings.
- Abstract(参考訳): 眼科診断のための深層学習法は、セグメント化や分類などのタスクでかなりの成功を収めています。
しかし、モデルが不透明で、複雑なケースで間違った決定を下すのに弱いため、その適用範囲は限られている。
説明可能性の方法は、不確実性を認識しながら、システムが予測を行うのに使用した特徴を示し、システムが決定について確信が持てないときに強調する能力である。
これは、情報に基づいた臨床意思決定のための不確実性および説明を使用する最初の研究の1つです。
高齢者関連黄斑変性症 (AMD) , 中枢性髄質網膜症 (CSR) , 糖尿病性網膜症 (DR) , 黄斑孔 (MH) の4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行った。
モンテカルロ(MC)のドロップアウトは、試験時にパラメータの分布を生成するために使用され、予測はベイズモデルの予測後部を近似する。
しきい値は分布を使用して計算され、不確実な症例は眼科医に参照することができ、誤診断を避ける。
モデルによって得られた特徴は、以前の研究から実証済みのアトリビューション方法を使用して視覚化される。
不確実性がモデル性能に及ぼす影響と不確実性と説明可能性の関係を臨床的意義の観点から検討した。
熱マップと共に不確実性情報により、臨床現場での使用がより信頼できる。
関連論文リスト
- Predictive uncertainty estimation in deep learning for lung carcinoma classification in digital pathology under real dataset shifts [2.309018557701645]
本稿では,予測不確実性推定が深層学習に基づく診断意思決定システムに堅牢性をもたらすか否かを評価する。
まず, モンテカルロの脱落, 深層アンサンブル, 肺腺癌分類の軽微な学習をスライド画像全体の一次疾患として, 予測不確実性を改善するための一般的な3つの方法について検討した。
論文 参考訳(メタデータ) (2024-08-15T21:49:43Z) - SepsisLab: Early Sepsis Prediction with Uncertainty Quantification and Active Sensing [67.8991481023825]
セプシスは米国での院内死亡の主な原因である。
既存の予測モデルは通常、情報不足の少ない高品質なデータで訓練される。
限られた観察により信頼性の低い高リスク患者に対して,ロバストな能動センシングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:47:36Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Enhance Eye Disease Detection using Learnable Probabilistic Discrete Latents in Machine Learning Architectures [1.6000489723889526]
糖尿病網膜症や緑内障などの眼疾患は、公衆衛生上の重大な課題となる。
深層学習モデルは、網膜イメージングのような医療画像を分析する強力なツールとして登場した。
課題は、モデル適合性と不確実性の推定であり、これは臨床的な意思決定に不可欠である。
論文 参考訳(メタデータ) (2024-01-21T04:14:54Z) - Uncertainty Quantification in Machine Learning Based Segmentation: A
Post-Hoc Approach for Left Ventricle Volume Estimation in MRI [0.0]
左室容積推定は各種心血管疾患の診断・管理に重要である。
近年の機械学習、特にU-Netのような畳み込みネットワークは、医療画像の自動セグメンテーションを促進している。
本研究では,LV容積予測におけるポストホック不確実性推定のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T13:44:55Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。