論文の概要: Uncertainty-Aware Information Pursuit for Interpretable and Reliable Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2506.16742v2
- Date: Mon, 22 Sep 2025 22:35:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 16:16:25.696892
- Title: Uncertainty-Aware Information Pursuit for Interpretable and Reliable Medical Image Analysis
- Title(参考訳): 医用画像解析における不確かさを意識した情報探索
- Authors: Md Nahiduzzaman, Steven Korevaar, Zongyuan Ge, Feng Xia, Alireza Bab-Hadiashar, Ruwan Tennakoon,
- Abstract要約: 本稿では,医療画像の解釈可能かつ不確実性を考慮したフレームワークを提案する。
本稿では,EUAV-IPとIUAV-IPの2つの不確実性認識モデルを紹介し,不確実性推定をV-IPクエリプロセスに統合する。
我々のアプローチでは、モデルが個々のサンプルに合わせた概念のサブセットに基づいて、信頼できる決定をすることができる。
- 参考スコア(独自算出の注目度): 24.308548455802377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To be adopted in safety-critical domains like medical image analysis, AI systems must provide human-interpretable decisions. Variational Information Pursuit (V-IP) offers an interpretable-by-design framework by sequentially querying input images for human-understandable concepts, using their presence or absence to make predictions. However, existing V-IP methods overlook sample-specific uncertainty in concept predictions, which can arise from ambiguous features or model limitations, leading to suboptimal query selection and reduced robustness. In this paper, we propose an interpretable and uncertainty-aware framework for medical imaging that addresses these limitations by accounting for upstream uncertainties in concept-based, interpretable-by-design models. Specifically, we introduce two uncertainty-aware models, EUAV-IP and IUAV-IP, that integrate uncertainty estimates into the V-IP querying process to prioritize more reliable concepts per sample. EUAV-IP skips uncertain concepts via masking, while IUAV-IP incorporates uncertainty into query selection implicitly for more informed and clinically aligned decisions. Our approach allows models to make reliable decisions based on a subset of concepts tailored to each individual sample, without human intervention, while maintaining overall interpretability. We evaluate our methods on five medical imaging datasets across four modalities: dermoscopy, X-ray, ultrasound, and blood cell imaging. The proposed IUAV-IP model achieves state-of-the-art accuracy among interpretable-by-design approaches on four of the five datasets, and generates more concise explanations by selecting fewer yet more informative concepts. These advances enable more reliable and clinically meaningful outcomes, enhancing model trustworthiness and supporting safer AI deployment in healthcare.
- Abstract(参考訳): 医療画像分析のような安全クリティカルな領域で採用するには、AIシステムは人間の解釈可能な意思決定を提供する必要がある。
変分情報探索(V-IP)は、人間の理解可能な概念に対する入力画像を逐次クエリし、その存在や不在を利用して予測を行うことによって、解釈可能なデザイン・バイ・デザインのフレームワークを提供する。
しかしながら、既存のV-IP手法は、不明瞭な特徴やモデル制限から生じる、概念予測におけるサンプル固有の不確実性を見落とし、最適なクエリ選択とロバスト性を低減する。
本稿では,概念ベース・解釈可能・設計モデルにおける上流の不確実性を考慮して,これらの制約に対処する医療画像の解釈可能・不確実性対応フレームワークを提案する。
具体的には、EUAV-IPとIUAV-IPの2つの不確実性認識モデルを導入し、不確実性推定をV-IPクエリプロセスに統合し、サンプル毎により信頼性の高い概念を優先順位付けする。
EUAV-IPはマスキングによって不確実な概念をスキップし、IUAV-IPは不確実性をクエリ選択に暗黙的に組み込んで、より情報的で臨床的に整合した決定を行う。
我々のアプローチでは、モデルが人間の介入なしに個々のサンプルに合わせて調整された概念のサブセットに基づいて信頼性の高い決定をし、全体的な解釈可能性を維持することができる。
本手法は, 皮膚内視鏡, X線, 超音波, 血液細胞イメージングの4つのモードにわたる5つの医用画像データセットを用いて評価した。
提案したIUAV-IPモデルは,5つのデータセットのうち4つの解釈可能なアプローチ間で最先端の精度を実現し,より少ないがより情報的な概念を選択することで,より簡潔な説明を生成する。
これらの進歩は、より信頼性が高く臨床的に有意義な結果を可能にし、モデルの信頼性を高め、医療におけるより安全なAIデプロイメントをサポートする。
関連論文リスト
- Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Keeping Medical AI Healthy: A Review of Detection and Correction Methods for System Degradation [6.781778751487079]
このレビューでは、医療におけるAIシステムの「健康」の監視と維持について、前向きな視点を提示する。
継続的パフォーマンス監視、早期劣化検出、効果的な自己補正メカニズムの緊急ニーズを強調します。
この研究は、ダイナミックな臨床環境における安全な長期展開を維持できる信頼性が高く堅牢な医療AIシステムの開発を導くことを目的としている。
論文 参考訳(メタデータ) (2025-06-20T19:22:07Z) - The challenge of uncertainty quantification of large language models in medicine [0.0]
本研究では,医学応用のための大規模言語モデル(LLM)の不確実性定量化について検討する。
私たちの研究は、不確実性を障壁としてではなく、AI設計に対する動的で反射的なアプローチを招待する知識の不可欠な部分として捉えています。
論文 参考訳(メタデータ) (2025-04-07T17:24:11Z) - Explaining Uncertainty in Multiple Sclerosis Lesion Segmentation Beyond Prediction Errors [30.086986374579414]
本研究では,予測の不確実性の潜在的な原因を説明する新しい枠組みを紹介する。
提案した分析は、不確実性とエラーの関係から関連する医療・工学的要因へと焦点を移す。
症例によっては, 病変の大きさ, 形状, 皮質の関与など, 不確実性が強く関与していることが判明した。
論文 参考訳(メタデータ) (2025-04-07T08:09:27Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本研究は,様々な画像モダリティと臨床応用を包括的に検討する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。