論文の概要: Position Paper: Integrating Explainability and Uncertainty Estimation in Medical AI
- arxiv url: http://arxiv.org/abs/2509.18132v1
- Date: Sun, 14 Sep 2025 02:41:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.399577
- Title: Position Paper: Integrating Explainability and Uncertainty Estimation in Medical AI
- Title(参考訳): ポジションペーパー:医療AIにおける説明可能性と不確実性評価の統合
- Authors: Xiuyi Fan,
- Abstract要約: 医療AIにおける信頼とユーザビリティを高めるために,説明不能不確実性推定(XUE)を提案する。
我々は、医療の不確実性をAIの不確実性の概念にマッピングし、XUEを実装する上で重要な課題を特定する。
この研究は、説明可能性と不確実性をブリッジすることで、信頼できる医療AIの開発に寄与する。
- 参考スコア(独自算出の注目度): 1.692908842436229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty is a fundamental challenge in medical practice, but current medical AI systems fail to explicitly quantify or communicate uncertainty in a way that aligns with clinical reasoning. Existing XAI works focus on interpreting model predictions but do not capture the confidence or reliability of these predictions. Conversely, uncertainty estimation (UE) techniques provide confidence measures but lack intuitive explanations. The disconnect between these two areas limits AI adoption in medicine. To address this gap, we propose Explainable Uncertainty Estimation (XUE) that integrates explainability with uncertainty quantification to enhance trust and usability in medical AI. We systematically map medical uncertainty to AI uncertainty concepts and identify key challenges in implementing XUE. We outline technical directions for advancing XUE, including multimodal uncertainty quantification, model-agnostic visualization techniques, and uncertainty-aware decision support systems. Lastly, we propose guiding principles to ensure effective XUE realisation. Our analysis highlights the need for AI systems that not only generate reliable predictions but also articulate confidence levels in a clinically meaningful way. This work contributes to the development of trustworthy medical AI by bridging explainability and uncertainty, paving the way for AI systems that are aligned with real-world clinical complexities.
- Abstract(参考訳): 不確実性は医療実践における根本的な課題であるが、現在の医療AIシステムは、臨床的推論と整合した方法で、不確実性を明確に定量化または伝達することができない。
既存のXAIはモデル予測の解釈に重点を置いているが、これらの予測の信頼性や信頼性は捉えていない。
逆に、不確実性推定(UE)技術は信頼性対策を提供するが、直感的な説明は欠如している。
これら2つの領域の切り離しは、医学におけるAIの採用を制限する。
このギャップに対処するために、医療AIにおける信頼性とユーザビリティを高めるために、説明可能性と不確実性定量化を統合した説明不能不確実性推定(XUE)を提案する。
我々は、医療不確実性をAIの不確実性の概念に体系的にマッピングし、XUEを実装する上で重要な課題を特定する。
我々は、マルチモーダル不確実性定量化、モデルに依存しない可視化技術、不確実性を考慮した意思決定支援システムなど、XUEを進めるための技術的方向性を概説する。
最後に,効率的なXUEの実現を実現するための指針を提案する。
我々の分析は、信頼できる予測を生成するだけでなく、臨床的に有意義な方法で信頼レベルを明示するAIシステムの必要性を強調している。
この研究は、説明可能性と不確実性をブリッジし、現実の臨床的複雑さに対応するAIシステムへの道を開くことによって、信頼できる医療AIの開発に寄与する。
関連論文リスト
- The challenge of uncertainty quantification of large language models in medicine [0.0]
本研究では,医学応用のための大規模言語モデル(LLM)の不確実性定量化について検討する。
私たちの研究は、不確実性を障壁としてではなく、AI設計に対する動的で反射的なアプローチを招待する知識の不可欠な部分として捉えています。
論文 参考訳(メタデータ) (2025-04-07T17:24:11Z) - Explaining Uncertainty in Multiple Sclerosis Lesion Segmentation Beyond Prediction Errors [30.086986374579414]
本研究では,予測の不確実性の潜在的な原因を説明する新しい枠組みを紹介する。
提案した分析は、不確実性とエラーの関係から関連する医療・工学的要因へと焦点を移す。
症例によっては, 病変の大きさ, 形状, 皮質の関与など, 不確実性が強く関与していることが判明した。
論文 参考訳(メタデータ) (2025-04-07T08:09:27Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - A Review of Uncertainty Estimation and its Application in Medical
Imaging [32.860577735207094]
不確実性推定は、深部モデルの予測とともに信頼性評価を生成する上で重要な役割を果たす。
これは特に医療画像において重要であり、モデルの予測の不確実性は、関心領域の特定や、臨床医への追加情報の提供に利用することができる。
論文 参考訳(メタデータ) (2023-02-16T06:54:33Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。