論文の概要: Explainability of AI Uncertainty: Application to Multiple Sclerosis Lesion Segmentation on MRI
- arxiv url: http://arxiv.org/abs/2504.04814v1
- Date: Mon, 07 Apr 2025 08:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:09:46.846834
- Title: Explainability of AI Uncertainty: Application to Multiple Sclerosis Lesion Segmentation on MRI
- Title(参考訳): AIの不確かさの説明可能性:MRIにおける多発性硬化症病変分割への応用
- Authors: Nataliia Molchanova, Pedro M. Gordaliza, Alessandro Cagol, Mario Ocampo--Pineda, Po--Jui Lu, Matthias Weigel, Xinjie Chen, Erin S. Beck, Haris Tsagkas, Daniel Reich, Anna Stölting, Pietro Maggi, Delphine Ribes, Adrien Depeursinge, Cristina Granziera, Henning Müller, Meritxell Bach Cuadra,
- Abstract要約: 本研究では,予測の不確実性の潜在的な原因を説明する新しい枠組みを紹介する。
提案した分析は、不確実性とエラーの関係から関連する医療・工学的要因へと焦点を移す。
症例によっては, 病変の大きさ, 形状, 皮質の関与など, 不確実性が強く関与していることが判明した。
- 参考スコア(独自算出の注目度): 30.086986374579414
- License:
- Abstract: Trustworthy artificial intelligence (AI) is essential in healthcare, particularly for high-stakes tasks like medical image segmentation. Explainable AI and uncertainty quantification significantly enhance AI reliability by addressing key attributes such as robustness, usability, and explainability. Despite extensive technical advances in uncertainty quantification for medical imaging, understanding the clinical informativeness and interpretability of uncertainty remains limited. This study introduces a novel framework to explain the potential sources of predictive uncertainty, specifically in cortical lesion segmentation in multiple sclerosis using deep ensembles. The proposed analysis shifts the focus from the uncertainty-error relationship towards relevant medical and engineering factors. Our findings reveal that instance-wise uncertainty is strongly related to lesion size, shape, and cortical involvement. Expert rater feedback confirms that similar factors impede annotator confidence. Evaluations conducted on two datasets (206 patients, almost 2000 lesions) under both in-domain and distribution-shift conditions highlight the utility of the framework in different scenarios.
- Abstract(参考訳): 信頼できる人工知能(AI)は医療、特に医療画像のセグメンテーションのような高度なタスクに不可欠である。
説明可能なAIと不確実性定量化は、堅牢性、ユーザビリティ、説明可能性といった重要な属性に対処することによって、AIの信頼性を著しく向上させる。
医療画像における不確実性定量化の広範な技術的進歩にもかかわらず、不確実性の臨床的情報性と解釈可能性の理解は依然として限られている。
本研究は, 深部アンサンブルを用いた多発性硬化症における大脳皮質病変のセグメンテーションにおいて, 予測不確実性の潜在的な原因を説明する新しい枠組みを提案する。
提案した分析は、不確実性とエラーの関係から関連する医療・工学的要因へと焦点を移す。
症例によっては, 病変の大きさ, 形状, 皮質の関与など, 不確実性が強く関与していることが判明した。
専門家のレーダフィードバックは、同様の要因がアノテータの信頼を阻害することを確認する。
ドメイン内および分散シフト条件下の2つのデータセット(206例,約2000例)で実施した評価は,異なるシナリオにおけるフレームワークの有用性を強調した。
関連論文リスト
- Interpretability of Uncertainty: Exploring Cortical Lesion Segmentation in Multiple Sclerosis [33.91263917157504]
不確実性定量化(UQ)は人工知能システムの信頼性を評価する上で重要である。
本研究では,磁気共鳴画像における焦点病変分割のための深層学習モデルにおけるインスタンス単位の不確実性値の解釈可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T09:13:30Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Can Physician Judgment Enhance Model Trustworthiness? A Case Study on
Predicting Pathological Lymph Nodes in Rectal Cancer [35.293442328112036]
直腸癌リンパ節転移の予測には,臨床データとMRIを用いてトランスフォーマーを用いた。
予測確率分散や定量化合意といったメタレベルの情報を用いてモデルの不確実性を推定した。
この合意が不確実性を減少させるかどうかの私たちの評価は、大きな影響は出なかった。
論文 参考訳(メタデータ) (2023-12-15T04:36:13Z) - Structural-Based Uncertainty in Deep Learning Across Anatomical Scales: Analysis in White Matter Lesion Segmentation [8.64414399041931]
不確実性定量化(英: Uncertainty Quantification、UQ)は、ホワイトマター病変(WML)セグメンテーションの文脈における、自動ディープラーニング(DL)ツールの信頼性の指標である。
我々は, 構造的予測の相違から, 病変や患者スケールの不確かさを定量化する尺度を開発した。
444例の多心MRIデータから, 病変のモデル誤差をより効果的に把握し, 患者規模を計測できることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T13:04:57Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - QU-BraTS: MICCAI BraTS 2020 Challenge on Quantifying Uncertainty in
Brain Tumor Segmentation -- Analysis of Ranking Metrics and Benchmarking
Results [29.106087655992862]
ディープラーニング(DL)モデルは、さまざまな医療画像ベンチマークの課題において最先端のパフォーマンスを提供する。
しかし,局所病理領域の多部分分割(腫瘍や病変のサブリージョンなど)の課題は特に困難である。
DLモデル予測の信頼性を不確実性の形で定量化することは、最も不確実な領域の臨床的レビューを可能にする。
論文 参考訳(メタデータ) (2021-12-19T06:45:55Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。