論文の概要: UbiQVision: Quantifying Uncertainty in XAI for Image Recognition
- arxiv url: http://arxiv.org/abs/2512.20288v1
- Date: Tue, 23 Dec 2025 11:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.855301
- Title: UbiQVision: Quantifying Uncertainty in XAI for Image Recognition
- Title(参考訳): UbiQVision:画像認識のためのXAIの不確かさの定量化
- Authors: Akshat Dubey, Aleksandar Anžel, Bahar İlgen, Georges Hattab,
- Abstract要約: SHAPの説明は、てんかんやアレタリック不確実性の存在下で不安定で信頼性が低い。
本研究はディリクレ後部サンプリングとデンプスター・シェーファー理論を用いて,これらの不安定な説明から生じる不確実性の定量化を行う。
- 参考スコア(独自算出の注目度): 39.47298454012977
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in deep learning have led to its widespread adoption across diverse domains, including medical imaging. This progress is driven by increasingly sophisticated model architectures, such as ResNets, Vision Transformers, and Hybrid Convolutional Neural Networks, that offer enhanced performance at the cost of greater complexity. This complexity often compromises model explainability and interpretability. SHAP has emerged as a prominent method for providing interpretable visualizations that aid domain experts in understanding model predictions. However, SHAP explanations can be unstable and unreliable in the presence of epistemic and aleatoric uncertainty. In this study, we address this challenge by using Dirichlet posterior sampling and Dempster-Shafer theory to quantify the uncertainty that arises from these unstable explanations in medical imaging applications. The framework uses a belief, plausible, and fusion map approach alongside statistical quantitative analysis to produce quantification of uncertainty in SHAP. Furthermore, we evaluated our framework on three medical imaging datasets with varying class distributions, image qualities, and modality types which introduces noise due to varying image resolutions and modality-specific aspect covering the examples from pathology, ophthalmology, and radiology, introducing significant epistemic uncertainty.
- Abstract(参考訳): 近年のディープラーニングの進歩は、医療画像など様々な領域で広く採用されている。
この進歩は、ResNets、Vision Transformers、Hybrid Convolutional Neural Networksといった、ますます洗練されたモデルアーキテクチャによって推進される。
この複雑さは、しばしばモデル説明可能性と解釈可能性を損なう。
SHAPは、ドメインの専門家がモデル予測を理解するのに役立つ解釈可能な可視化を提供する重要な方法として登場した。
しかし、SHAPの説明は、てんかんやアレタリック不確実性の存在下で不安定で信頼性が低い。
本研究では、ディリクレ後部サンプリングとデンプスター・シェーファー理論を用いて、これらの不安定な説明から生じる不確かさを定量化する。
このフレームワークは、統計的定量的分析と並行して、信念、実証可能、融合マップアプローチを使用して、SHAPにおける不確実性の定量化を生成する。
さらに, 画像の分類, 画質, 音質の異なる3種類の医用画像データセットについて, 病理, 眼科, 放射線学の例を対象とし, 様々な画像解像度, モダリティに特有な側面を呈し, 有意な疫学的不確実性をもたらす3種類の画像データセットについて検討した。
関連論文リスト
- Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Conformalized Generative Bayesian Imaging: An Uncertainty Quantification Framework for Computational Imaging [0.0]
不確かさの定量化は、信頼性が高く信頼性の高い学習ベース・コンピューティング・イメージングの達成に重要な役割を果たしている。
生成モデリングとベイズニューラルネットワークの最近の進歩は、不確実性を考慮した画像再構成手法の開発を可能にしている。
本稿では,失語症とてんかんの不確実性の両方を定量化できるスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-10T12:30:46Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - FeaInfNet: Diagnosis in Medical Image with Feature-Driven Inference and
Visual Explanations [4.022446255159328]
解釈可能なディープラーニングモデルは、画像認識の分野で広く注目を集めている。
提案されている多くの解釈可能性モデルは、医用画像診断の精度と解釈性に問題がある。
これらの問題を解決するために,機能駆動型推論ネットワーク(FeaInfNet)を提案する。
論文 参考訳(メタデータ) (2023-12-04T13:09:00Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。