論文の概要: Considerations for Visualizing Uncertainty in Clinical Machine Learning
Models
- arxiv url: http://arxiv.org/abs/2210.12220v1
- Date: Fri, 21 Oct 2022 19:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 21:27:50.703531
- Title: Considerations for Visualizing Uncertainty in Clinical Machine Learning
Models
- Title(参考訳): 臨床機械学習モデルにおける不確かさの可視化に関する考察
- Authors: Caitlin F. Harrigan, Gabriela Morgenshtern, Anna Goldenberg, Fanny
Chevalier
- Abstract要約: 臨床医が直面する予測モデルは、医療現場にますます存在する。
我々は,この環境における不確実性を,行動可能で信頼性の高い方法で視覚的に伝達する方法について検討する。
- 参考スコア(独自算出の注目度): 18.821020907534418
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Clinician-facing predictive models are increasingly present in the healthcare
setting. Regardless of their success with respect to performance metrics, all
models have uncertainty. We investigate how to visually communicate uncertainty
in this setting in an actionable, trustworthy way. To this end, we conduct a
qualitative study with cardiac critical care clinicians. Our results reveal
that clinician trust may be impacted most not by the degree of uncertainty, but
rather by how transparent the visualization of what the sources of uncertainty
are. Our results show a clear connection between feature interpretability and
clinical actionability.
- Abstract(参考訳): 臨床医による予測モデルが医療現場でますます存在感を増している。
パフォーマンスメトリクスが成功しても、すべてのモデルに不確実性があります。
我々は,この環境における不確実性を行動可能で信頼できる方法で視覚的に伝達する方法を検討する。
この目的のために,心臓科臨床医との質的研究を行った。
以上の結果から,臨床医の信頼は,不確実性の程度ではなく,不確実性源の可視化の透明性に最も影響している可能性が示唆された。
以上の結果から,特徴解釈可能性と臨床動作性との関連が明らかとなった。
関連論文リスト
- Improving Robustness and Reliability in Medical Image Classification with Latent-Guided Diffusion and Nested-Ensembles [4.249986624493547]
深層学習は高い予測精度と不確実性推定を実現することが示されている。
テスト時の入力画像のゆがみは、パフォーマンスを著しく低下させる可能性がある。
LaDiNEは,入力画像から情報および不変潜伏変数を推定できる,新規で堅牢な確率的手法である。
論文 参考訳(メタデータ) (2023-10-24T15:53:07Z) - Improving Image-Based Precision Medicine with Uncertainty-Aware Causal
Models [3.5770353345663053]
ベイジアンディープラーニング(英語版)を用いて、いくつかの治療における現実的および対実的な結果に対する後部分布を推定する。
本モデルを用いて,多発性硬化症患者のMR脳画像の多施設データセットを用いて,今後新たなT2病変数を予測し,評価する。
論文 参考訳(メタデータ) (2023-05-05T20:08:40Z) - A Review of Uncertainty Estimation and its Application in Medical
Imaging [32.860577735207094]
不確実性推定は、深部モデルの予測とともに信頼性評価を生成する上で重要な役割を果たす。
これは特に医療画像において重要であり、モデルの予測の不確実性は、関心領域の特定や、臨床医への追加情報の提供に利用することができる。
論文 参考訳(メタデータ) (2023-02-16T06:54:33Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - COVID-Net Clinical ICU: Enhanced Prediction of ICU Admission for
COVID-19 Patients via Explainability and Trust Quantification [71.80459780697956]
患者臨床データに基づくICU入院予測のためのニューラルネットワークであるCOVID-Net Clinical ICUを紹介する。
提案されたCOVID-Net Clinical ICUは、1,925人のCOVID-19患者からなるシロ・リバネ病院の臨床データセットを使用して構築された。
定量的説明可能性戦略を用いたシステムレベルの洞察発見を行い,異なる臨床特徴の意思決定効果について検討した。
論文 参考訳(メタデータ) (2021-09-14T14:16:32Z) - Joint Dermatological Lesion Classification and Confidence Modeling with
Uncertainty Estimation [23.817227116949958]
本稿では,皮膚学的な分類と不確実性評価を共同で検討する枠組みを提案する。
信頼ネットワークから不確実な特徴や望ましくない変化を避けるために,各特徴の信頼度を推定する。
提案手法の可能性を2つの最先端の皮膚内視鏡的データセットに示す。
論文 参考訳(メタデータ) (2021-07-19T11:54:37Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。